Af Andreas Halskov

 

Lyden er den stille hjælper, en af filmens oversete og ofte ubesungne helte. Dens funktioner er dog centrale og mangfoldige, og det ville ikke være urimeligt at påstå, at lyddesignet fungerer som filmens ryggrad eller fundament. Brugen af lydeffekter og non-diegetisk musik kan understøtte handlingen, udpege og beskrive centrale karakterer, genstande og steder, og de atmosfæriske lyde kan skabe stemning og udvide det filmiske rum. Den er det første problem, man får øje på, når man ser en elevproduktion, og der er stadigvæk tvivl om, hvilke begreber vi skal bruge når vi taler om den. I denne artikel vil jeg dog prøve at slå til lyd for filmens stille men essentielle hjælper, foruden at give en terminologisk og historisk introduktion til feltet.

De første ord: En introduktion

”Filmens Hovedejendommeligheder er dens Stumhed og dens Farveløshed.” – Urban Gad, 1919

Når jeg introducerer filmlyd for mine elever, begynder jeg ofte med to små og relativt simple øvelser. Den første består i at få eleverne til at forholde sig til ovenstående citat af Urban Gad i samspil med en liste af klassiske ord knyttet til film og TV: photoplay, picture, levende billeder, moving images, filmtilskuer, fjernsyn, fjernseer og video.

Fig. 1: Den franske filmskaber Jacques Tati har skabt nogle af de mest ikoniske lydfilm, hvor der leges med forholdet mellem det, tilskueren ser og hører. Her ser vi et frame grab fra filmen PlayTime (1967).

Den anden øvelse består i at vise dem en scene fra Jacques Tatis Mon Oncle (1958) – en film som ingen af eleverne formodes at have set – og bede dem om, helt simpelt, at beskrive hvad de ser og hører. Eleverne kvier sig ofte ved Tati-øvelsen og finder den folkeskoleagtig, men deres svar er alligevel – ikke overraskende – mangelfulde. Når de beskriver billederne, går det som regel nemt. En mand i jakkesæt går ud af et fint hus og tjekker sine lommer for at se om han har husket nøglerne. En kvinde i mintgrøn kjole kommer til, pudser glasdøren, ordner mandens tøj og giver ham et fint etui med cigaretter. Herefter går manden hen til garagen, mens kvinden åbner den fine hovedindgang, og en lille, velklædt dreng kommer ud af hoveddøren og løber ned mod bilen, som derpå kører væk fra stedet og forlader den vinkende kvinde.

Når det kommer til lyden, er elevernes beskrivelser dog mere tvivlsomme, og ofte ligner de en simpel gentagelse af det, vi ser i billedet, al den stund der er tale om foleylyde, som ikke har den fjerneste relation til det, vi har set. Vi hører faktisk ikke fodtrin, pudseklud og cigaretetui, men claves, koklokke og fingerknips. Denne øvelse tjener således et simpelt formål – at vise eleverne hvor ofte vi underbetoner og fejlbeskriver lyden – og den simple diskussionsøvelse viser dem, at vi helt naturligt tænker på film som en visuel kunstform. Noget der vises i levende billeder og som vi ser men ikke hører.

Der er intet mærkeligt i dette. Nej, det er faktisk en naturlig kognitiv respons. Synet er en primærsans, og når billeder og lyd opleves i synkroni er vi som mennesker naturligt tilbøjelige til at beskrive lyden ud fra billederne. Dette fænomen kalder Michel Chion synchresis – at vi naturligt oplever en syntese mellem billede og lyd så snart de to elementer opleves i synkroni (det er det samme fænomen, som kan få nogle folk til at tro, at Dark Side of the Moon er lavet til The Wizard of Oz, fordi musikken passer til handlingen, når de afspilles samtidig).

Af samme grund skal vi heller ikke opfordre eleverne til at sige, hvilke lydelementer, der er optaget med billedet, og vi bør udskifte den problematiske sondring mellem synkron og asynkron lyd. Hvor lyden oprindelig kommer fra, er ikke så interessant som hvordan den forholder sig til handlingsplanet og hvilke funktioner den tjener, og eleverne har heller ikke adgang til denne viden. Jo bedre et lyddesign er, jo mere umuligt vil det være for eleverne at adskille den direkte lyd (som er optaget på stedet) fra foleylyden (som er lavet af en foley-artist efterfølgende til billederne) og effektlydene, som er blevet lagt på digitalt. ”Hverken eleverne eller lærerne kan reelt vide, hvor lyden kommer fra,” som lyddesigner Kristian Eidnes har fortalt mig. ”Hvis det er gjort godt, har de ingen chance for at sige, hvad der er hvad” (jf. fig. 2).

Fig. 2: Komponisten og lyddesigneren Kristian Eidnes under indspilningen af Lars Von Triers Melancholia (2011). Billedet er stillet til rådighed af Eidnes.

Den anden grund til, at vi taler om film som levende billeder, skyldes formentlig at tonefilmen først blev opfundet i 1920’erne. Før 1927 havde man ikke velfungerende optiske og magnetiske lydspor, og derfor tænker vi måske på lyden som en tilføjelse til filmen, snarere end en integreret og naturlig del af filmen. Men dette er i bedste fald en historisk misforståelse. ”The silents were never silent,” som Kevin Brownlow (1968: 383) populært udtrykker det, og man havde mange elementer af lyd i forbindelse med selv de tidligste film: Der var levende akkompagnementer (hvor musikken blev spillet ud fra cue-sheets, så komponisten vidste hvad der skulle spilles og hvornår), musikalsk frembragte lydeffekter (hvor man med instrumenter kunne imitere den visuelle handling) og sågar – i enkelte tilfælde – oplæsere som kunne fremsige de forskellige replikker og give liv til de spøgelsesagtige karakterer på lærredet (sådanne oplæsere havde man i Japan helt frem til 1936).

Disse to, simple introduktionsøvelser har altså et dobbelt formål:

  • at vise eleverne, at vi skal kigge og lytte mere fokuseret, når vi ser/hører en film, og at vi nogle gange bliver nødt til at adskille de enkelte dele for at kunne beskrive dem præcist. Når dette er særligt vigtigt ift. lyd, skyldes det, at lyd og musik er bundet i tid, hvorimod billedet kan sættes på pause og studeres nøje. Derfor kan det være nødvendigt at høre lyden uden at se og blive forstyrret af billedet for herefter at opleve den i samspil med billedet.
  • at vise eleverne, at lyden tjener en central rolle, skønt man ofte har haft tendens til at underprioritere denne del af filmoplevelsen. En underprioritering, som altså kan ses i de ord, vi naturligt bruger om filmmediet og som ligefrem kan spores i titlerne på de ellers gode bøger, som vi læser i undervisningen.

At beskrive og analysere lyd

Lyden kan være besværlig at håndtere. Det ene øjeblik er den der, men det næste øjeblik er den væk. Den udstrækker sig i tid, og vi oplever den i samspil med billedet. I et forsøg på at beskrive og analysere lyden og musikken mere præcist kan vi dog bruge den model, som forskeren Birger Langkjær har præsenteret i Den lyttende tilskuer (2000) og forsimplet i sin artikel til antologien Blik for lyd (2014). Langkjærs hovedpointe er, at vi som lyttende tilskuere må stille os selv spørgsmålene: Hvad hører jeg, hvilke oplevelser og følelser vækker lyden og hvad gør lyden os klart? Således mener han, at vi bør skelne mellem følgende tre niveauer:

  • Det sensoriske niveau (hvad hører jeg?)
  • Det emotive niveau (hvilke følelser og stemninger skaber lyden i samspil med billedet?)
  • Det dramatiske niveau (hvad fortæller lyden om forskellige elementer i filmen, fx hændelser, karakterer og steder?)
     
Fig. 3: Langkjærs analysemodel (Langkjær 2014: 7)

Langkjærs analysemodel kan fungere som et fint værktøj for eleverne, og den kan tilføje en ekstra dimension til de grundlæggende begrebsdannelser, som eleverne bliver introduceret til.

Der findes flere terminologier, når det kommer til filmlyd, men jeg har valgt at operere med de begreber, som der er størst konsensus om i litteraturen.

Diegetisk vs. non-diegetisk lyd

For det første bør eleverne kende sondringen mellem diegetisk og non-diegetisk lyd/musik. Disse termer beskriver den lyd, der hhv. opleves som en del af handlingsplanet eller som noget, der kommer udefra. Når man så at sige kender kilden (altså den tilsyneladende kilde) til musikken eller lyden, så er der i sagens natur tale om diegetisk lyd/musik (i filmbranchen bruger man derfor ofte source music som betegnelse for diegetisk musik). Er lyden et element som synes tilføjet for effekt eller atmosfære, så er den omvendt non-diegetisk. Som introduktion til dette plejer jeg at vise et udsnit fra Blazing Saddles (1974), hvor det der forekommer at være non-diegetisk musik (et stykke jazzmusik, som spiller idet der tiltes op ad en saddeltaske og en sort rytter) viser sig at være diegetisk musik, idet kamerabevægelsen overraskende nok viser Count Basie og et lille ensemble midt ude i ørkenen.

Den diegetiske lyd kan både eksistere som on-screenlyd og off-screenlyd, og det er altså væsentligt for eleverne at forstå, at det ikke handler om, hvad vi ser i billedet, men om lydens relation til handlingsplanet (og om man principielt ville kunne høre lyden, hvis man var en karakter i filmen). I de fleste tilfælde vil dette være let at afgøre, men i enkelte scener er der tale om en bevidst uklarhed omkring lyden – hvorvidt den er diegetisk eller ej – og når filmen driller os eller skaber en uklarhed, taler man ofte om slippage. Denne glidning oplever vi altså i Mel Brooks’ førnævnt film med en komisk hensigt, men man oplever den også i slutningen af David Lynchs Wild at Heart (1990), hvor den ene hovedperson tilsyneladende synger Elvis-nummeret ”Love Me Tender” på taget af en bil, men hvor rumklangen og lyden af forskellige musikinstrumenter får scenen til at virke kunstig og lyden til at virke påklistret. Og i enkelte film er der sågar tale om en slags ekstra-diegetisk musik, fordi musikken afspilles af nogle musikere, men hvor scenerne med musikerne ikke reelt er en integreret del af handlingen. Dette oplever man i Jean-Luc Godards Prénom Carmen (1983) hvor vi har en reel handling, men hvor vi indimellem klipper til en violinkvartet, som øver et stykke musik. Lydens kilde ses altså i billedet, men det er uklart om violinkvartetten og deres musik er en del af filmens handling.

Fig. 4: I en vis forstand er musikken diegetisk i de forskellige scener med violinkvartetten i Jean-Luc Godards film Prénom Carmen (1983), idet vi faktisk ser lydkilden. Men disse scener har ingen relation til den øvrige handling og er således ikke en reel del af diegesen (handlingsplanet). Så hvad kan vi kalde denne musik?

Parafraserende, polariserende og kontrapunktisk lyd

Med Birger Langkjær (2009: 149) kan vi desuden sondre mellem parafraserende, polariserende og kontrapunktisk lyd, og det giver god mening at have alle tre elementer med. Den parafraserende lyd eller musik gengiver eller illustrerer det, vi ser i billedet. Hvis den gør dette i helt ekstrem eller komisk grad, vil vi ofte beskrive det som en form for mickey mousing (som vi kender det fra Disneys tidlige lydfilm). Den polariserende lyd eller musik udvider rummet. Den ’gengiver’ eller fordobler ikke billedet, men den er heller ikke i direkte modstrid til de stemninger, som skabes via billederne og forsøger altså ikke at skabe en konflikt imellem billed- og lydsiden. I Alien (1979) skabes en del af rumfornemmelsen eksempelvis gennem lydsiden, hvor den polariserende lyd udvider rummet og giver os en fornemmelse af den dybde og storhed, som man ikke kan se af billederne. I filmens åbning ser vi fx nogle nærbilleder af en gammel computer, og vi hører dens bippende interface, men vi hører samtidig en repetitiv rungen på lydsporet, og ekkoet giver os en fornemmelse af, at vi befinder os i et stort, mennesketomt rum.

Den kontrapunktiske musik eller lyd har da til formål at skabe en kontrast til den billedlige stemning, ved eksempelvis at koble en glad og jovial sang til billederne af en voldtægt, et skyderi eller en torturscene.

Fig. 5: Pigen går, frimodig og glad, ud i vandet, og på lydsporet hører vi en harpe. Harpens rislen kunne illustrere vandet og bølgegangen (som i Claude Debussys La mer), men da vi pludselig skifter til et markant frøperspektiv og hører et halvtonespring på lydsporet, ved vi at noget er galt. Det er hajens point of view, vi ser, og halvtonespringet kommer til at fungere som hajens ledemotiv. Frame grab fra Jaws (1975).

Som illustration af disse elementer har jeg ofte valgt at spille nummeret ”Stuck in the Middle” og dele af scoret fra Jaws (1975) og bede eleverne om at beskrive musikken efter bedste evne (alt fra instrumenter til toner, dur-mol-forhold og hvilke stemninger eller associationer musikken skaber), for derpå at vise den klassiske strandscene fra Spielbergs film og den ligeså ikoniske torturscene fra Tarantinos Reservoir Dogs (1992). Disse to film er særligt effektive overfor hinanden, idet der er tale om hhv. non-diegetisk musik, som skaber suspense og understreger eller parafraserer hajangrebet, og diegetisk musik, som med sit hyggelige udtryk står i skræmmende kontrast til den billedlige handling (hvor politibetjenten får skåret sit øre af).

Den parafraserende lyd fordobler altså billedet, den polariserende lyd udvider billedet og den kontrapunktiske lyd kontrasterer billedet – og navnlig den kontrapunktiske lydanvendelse har været genstand for megen diskussion. Den første til for alvor at skrive om denne brug af lyd var V.I. Pudovkin, som mente at den kontrapunktiske lydanvendelse kunne være en slags audiovisuel udvidelse af montageprincippet, og han kaldte dette princip asynchronism (også derfor er det problematisk at bruge begrebsparret synkron og asynkron lyd, som hverken bruges i branchen eller i den akademiske verden).

Scoremusik vs. populærmusik

Endelig kan man skelne mellem forskellige typer af musik, hhv. præ-eksisterende populærmusik og scoremusik, som har nogle forskellige relationer til billedet, forskellige udtryksformer og tilknyttede associationer.

Scoremusikken er lavet til filmen og har ofte karakter af et symfonisk partitur, der naturligt passer til billederne, udvider det visuelle rum og skaber forskellige stemninger og atmosfærer. Den præ-eksisterende populærmusik er anderledes, idet vi allerede kender den fra en anden kontekst – hvorfor den bærer forskellige associationer med ind i filmen – og dens lyrik kan også give den en mere tidsspecifik og illustrerende karakter. Når Bon Jovi fx synger ”She’s just a runaway” mens Eleven/Jane flygter til Chicago i anden sæson af Stranger Things (Netflix, 2017), virker dette konkret og direkte illustrerende, og omvendt kan musikken fra Singin’ in the Rain (1952) virke ekstra skræmmende i samspil med voldtægtsscenen fra A Clockwork Orange (1971), idet vi allerede kender musikken fra Gene Kellys romantiske musical.

Fig. 6: En ikonisk scene fra Stanley Kubricks film A Clockwork Orange (1971), hvor hovedpersonen synger og danser til ”Singin’ in the Rain”, mens han voldtager en kvinde og tvinger hendes mand til at overvære overgrebet. Den kontrapunktiske brug af musik gør scenen endnu mere morbid og uhyggelig.

Lydforskeren Rick Altman oplister forskellene mellem populærmusik og scoremusik på følgende måde:

Klassisk scoremusik Præeksisterende populærmusik
Tekstfri (muteness) Tekstbåren (linguistic dependence)
Abstrakt (indeterminacy) Konkret, forudsigelig (predictability)
Upåfaldende (inconspicuousness) Påfaldende, sangbar (singability)
Variabel (expansibility) Genkendelig (rememberability)
Følelsesmæssigt dragende (quiet listening and mental involvement) Fysisk inddragende (active physical involvement)
Fig. 7: Scoremusik vs. populærmusik (Altman 2001: 23-25).

 

Andre termer

Der findes et væld af andre lydbegreber, som man naturligt kunne tilføje, og det synes i al fald relevant at nævne den subjektive lyd, som er den lyd eller stilhed, der bruges til at illustrere de indre følelser og tanker hos en karakter. Dette kan selvklart gøres gennem voice-over (en personalfortæller), men kan også gøres ved pludselige skift i lydniveauerne (som i Bang Bang Orangutang [2005], hvor der pludselig skiftes til stilhed, idet hovedpersonen påkører og dræber sin søn) eller ved at gøre stemmen uhørbar eller mufflet (som i den scene fra Breaking Bad [AMC, 2008-2013], hvor Walter White får stillet sin kræftdiagnose). Når vi ikke kan høre dialogen, skønt man faktisk ser den talende person i en tæt beskæring, leder vi efter forskellige forklaringer. Hvorfor hører vi ikke talen? Det samme gør sig gældende, når vi oplever pludselige skift i lydniveau. Hvorfor den pludselige stilhed eller det pludselige vinkelskift?

I sådanne tilfælde vil svaret ofte være, at de lydlige skift skal markere en forandring i en karakters sindstilstand eller et skift fra ydre til indre. Når karakteren Mystery Man dukker op i Lost Highway (1997), bliver den diegetiske partymusik fx lavere, mens der introduceres en svag, non-diegetisk rumlen på lydsporet og en tydelig fokus på Mystery Mans tale. Disse skift i lydniveau fortæller os, at vi nu er inde i Freds hoved, at vi har skiftet fra et ydre til et indre lyttepunkt, sådan som man kan skifte fra et slags tredjepersonsblik til et egentlig point of view-skud. Andre interessante eksempler på dette inkluderer den berømte Omaha Beach-sekvens fra Saving Private Ryan (1998), hvor et pludseligt skift i lyd giver os en subjektiv fornemmelse af granatchok, og den ungarske film Saul fia (2015, Sauls søn), hvor alt det grufulde sker uden for skærmbilledet men høres på lydsporet – som om vi var inden i hovedet på filmens hovedperson.

Herudover plejer jeg at introducere begrebet ledemotiv, et klassisk musikalsk greb, kendt fra Richard Wagner, hvor et musikalsk eller lydligt tema eller motiv knytter sig til en karakter, en genstand eller en lokalitet i løbet af filmen (som det halvtonespring, der knytter sig til hajen i Jaws eller det tema, som knytter sig til Darth Vader i Star Wars-filmene). Og jeg plejer også at forklare lydbroer (hvor lyd/musik fortsætter fra en indstilling til den næste for at skabe sammenhæng og kontinuitet) og sound hooks (hvor én lyd flyder over i en anden lyd i den efterfølgende scene – som moderens skrig i Don’t Look Now [1973], der glider over i lyden af en boremaskine) samt dialogue hooks (hvor en person siger noget, hvorefter der klippes til det, der blev sagt). Sound og dialogue hooks kan også samles under betegnelsen klip på lyd, et greb der regnes som en naturlig del af kontinuitetsstilen.

I forbindelse med min introduktion til filmens lydside viser jeg ofte eleverne mine to interview med music supervisoren Thomas Golubić og lyddesigneren Peter Albrechtsen og mit videoessay om ”Stilhed på film”, og herpå giver jeg dem forskellige filmsekvenser, som de skal analysere lydligt med brug af de ovenstående begreber og Birger Langkjærs førnævnte analysemodel. Analysen af anslaget til Wild at Heart [1990], anslaget til Falling Down [1993] og klimakset fra Magnolia [1999]), skal skrives sammen til en sammenhængende prosatekst, der skal fungere som voice-over i et videoessay, der senere vises og diskuteres på klassen.

De tre sekvenser er interessante hver især, men er også indbyrdes forskellige og kan således bruges til at repetere forskellige begreber og funktioner vedrørende lyd og musik. Wild at Heart-sekvensen veksler mellem festlig bigbandmusik, der grundet den akustiske karakter synes at være diegetisk, og en mere slagkraftig og non-diegetisk thrash-musik. I forbindelse med dette skift får musikken også en karakter af mickey mousing, idet den mimer den vold, som vises på billedsiden, og den kunne måske beskrives som subjektiv – som en beskrivelse af Sailors mentale tilstand. Samtidig bruges der markerede effekt- og nærlyde, og hele sekvensen opererer med store skift i dynamik og intensitet. Falling Down-sekvensen er et godt eksempel på, hvordan skift i lydniveau giver en subjektiv fornemmelse, hvilket modsvarer brugen af vidvinkel, point of view-klipning og ultranærbilleder, og her er det tydeligt, at vi oplever det hele fra hovedpersonens lyttepunkt. I Magnolia-sekvensen er det til gengæld musikken og den mærkelige glidning mellem diegetisk og non-diegetisk lyd, som er interessant, og her tjener musikken og lyden en række strukturelle og narrative funktioner: Den skaber lydbroer mellem de enkelte indstillinger og scener, og den forbinder de forskellige karakterer i et skæbnefællesskab, alt imens den ’forbryder’ sig mod Gorbmans princip om, at vi ikke må lægge mærke til musikken.

Vi er født med ører, og høresansen har været i spil allerede inden synssansen, mens vi lå i mors mave. Men evnen til at lytte skal optrænes, og sproget til at tale om lyd og musik med skal tilegnes i klasserummet.

Fig. 8: Music supervisor Thomas Golubić i et interview om filmmusik, foretaget ved SPOT-festivalen i 2017. Foto: Jan Oxholm.
Fig. 9: Lyddesigner Peter Albrechtsen i et interview lavet i hans lydstudie i efteråret 2016. Albrechtsen er en del af Oscarakademiet og er en kendt dansk lyddesigner samt medforfatter (s.m. forfatteren til denne artikel) til en kommende bog om lyddesign i film og tv-serier. Foto: Jan Oxholm.

Fra part-talkies til bragende storfilm: historiske nedslagspunkter

Lydens gennembrud dateres ofte til 1927 i forbindelse med udgivelsen af Warner Brothers’ musikalske melodrama The Jazz Singer. Heri akkompagneres det visuelle drama af diegetisk musik – og sine steder sågar tale – fremført og fremsagt af den jødiske stjerneskuespiller Al Jolson. Eksperimenterne med filmlyd begyndte dog allerede ved filmens fødsel (tidlige eksperimenterå man hos bl.a. Gaumont, og en af de første lydpionerer var den ukendte kvindelige filmskaber Alice Guy-Blanché, der bl.a. eksperimenterede med synkronlyd). Men det reelle gennembrud kom først i begyndelsen af 1930’erne.

Fig. 10: “You ain’t heard nothin’ yet”: Den første officielle tonefilm The Jazz Singer så dagens lys i 1927, men filmens lydside har udviklet sig meget siden da.

De tidlige pionerer: 1927-1932

Afstanden fra Croslands såkaldte part-talkie, The Jazz Singer, til mere gennemførte tonefilm – hvori lyden ikke blot fungerede som et akkompagnement – er således stor. Men den generelle forestilling om alle tidlige lydfilm som fortælleteknisk og æstetisk tilbageskuende (grundet det tunge lydudstyr, som hæmmede kameraets bevægeudstyr, og den store fokus på tale) er ikke desto mindre tvivlsom. ”You ain’t heard nothing yet,” som Al Jolson da også sagde i den førnævnte The Jazz Singer. Den var blot en begyndelse.

Hvis flere tidlige tonefilm rigtignok gestaltede det filmiske drama omkring talen – som en moderne teknologisk attraktion og ”stjerne-signatur” – så arbejdede andre tonefilm snarere med lydens iboende kvaliteter. Den russiske film Dezertier (1933) arbejdede med et kontrastrigt og til tider kontrapunktisk forhold mellem lyd og billede (ud fra det princip, som instruktøren kaldte asynchronism), Rouben Mamoulian-filmen Applause (1929) opererede med hele to lydspor og et sammenrend af lydelementer (hvad instruktøren kaldte ”the Mamoulian stew”), Hitchcock-filmen Blackmail (1929) brugte subjektiv lyd (med ordet ”knife” som bliver gentaget og forvrænget ind over et nærbillede af Anny Ondra for at illustrere den skyld, som hendes karakter føler), musicalen Love Me Tonight (1932) brugte forskellige diegetiske lyde som en slags konkret musik, idet byen vågner, på en måde der senere inspirerede Marc Caro og Jean-Pierre Jeunet til Delicatessen (1991) og Lars Von Trier til Dancer in the Dark (2000), og Fritz Lang var en af de første til at eksperimentere med off-screen-stemmer, stilhedspassager og ledemotiver.

Fløjtemotivet spiller fx en central rolle i filmen M (1931) – på en måde der senere blev inspirationsgrundlag for Ole Bornedals Nattevagten (1994) – og Lang bruger stilhed til at skildre tabet af Elsie i begyndelsen af selvsamme film. Off-screen-lyden bruges ligeledes som et banebrydende greb i forbindelse med introduktionen af barnemorderen i M og titelpersonen i Das Testament des Dr. Mabuse (1933), og off-screen-stemmer (hvis kilde vi ikke altid ser) spiller i det hele taget en central rolle i Langs tidlige tonefilm.

Fig. 11: Den tyske film M (1931) var nyskabende for sin brug af stilhed, ledemotiver og off-screen-lyd.

De instruktører, der legede mest med lydens funktionsmuligheder i den tidlige film var formentlig Fritz Lang, René Clair, Josef Von Sternberg, Luis Buñuel og Rouben Mamoulian, og mange af deres innovative greb skulle senere blive genbrugt i moderne lydfilm. I samme forbindelse bør man formentlig nævne Murray Spivak, der lavede et af filmhistoriens første lyddesign til Merian C. Cooper-filmen King Kong (1933), og man kunne også pege på Jean Renoir og Alberto Cavalcanti som nogle væsentlige forgangsfigurer.

Den klassiske filmlyd: 1932-1960

Med lydens gennembrud fulgte også en række genrer, hvor lyden spillede en direkte og mere gennemgribende rolle. Man kunne eksempelvis ikke tænke sig en screwball-komedie uden de fygende, vittige og semierotiske bemærkninger, man kunne ikke forestille sig noir-genren uden voice-over og hårdkogte dialoger, og man kunne ikke have musicals uden sang og musik (musicalen Singin’ in the Rain, kommenterede da også direkte på lydens gennembrud og de teknologiske problemer derved).

Andre genrer, som var blevet født i stumfilmsæraen, gjorde dog også brug af lyden som et medfortællende element, og gangsterfilmen kendes i dag lige så meget for sine hvinende bildæk og rå skudsalver (som vi oplever i bl.a. Scarface [1932]) som for sine visuelle signaturer.

Den franske filmskaber René Clair mente, at talen var en ”barbarisk invasion” i filmen, men han mente dog også, at lydfilmen kunne være en kunstform, såfremt man udnyttede dens potentiale på en mere kreativ måde. Herved foregreb han den diskussion, som blev central op igennem 1930’erne, hvor studierne forsøgte at sælge deres film på de talende stjerner, mens kritikerne talte om ”talkien” som en bastard, der kunne risikere helt at dræbe filmkunsten.

Op igennem 1940’erne og 50’erne blev filmlyden mere og mere standardiseret, og nogle af de principper for underlægningsmusik, som Erich Wolfgang Korngold og Max Steiner havde introduceret i 1930’erne, blev grundlag for en egentlig formel. I Claudia Gorbmans værk Unheard Melodies (1987) bruger hun Steiners musik (i bl.a. Casablanca [1942]) som en slags model til at beskrive Hollywoods generelle strategier ift. lyd og musik. Det var hos Steiner og Korngold, at vi først oplevede Hollywoods strategiske arbejde med underlægningsmusik, Wagnerske ledemotiver, væg til væg-musik og mickey mousing (tænk blot på Steiners musik til King Kong [1933]), hvor musik og lyd blev brugt som naturlige dele af det klassiske amerikanske kontinuitetsstil.

Musikken kunne skabe sammenhænge mellem forskellige karakterer, tider og handlingsplaner, og den kunne skabe kontinuitet på tværs af indstillinger, scener og sekvenser. Den kunne også understrege de stemninger og følelser, som filmskaberen ønskede at illustrere, og skjule støjen fra det tekniske apparatur og således sørge for at forstærke illusionen og publikums indlevelse. Gorbmans væsentligste bidrag ligger i at introducere cueing-begrebet og forklare, at lyden i den klassiske film altid tjener nogle konkrete fortællemæssige og/eller strukturelle funktioner: Den cuer skift i tid og rum, skift fra én karakter til en anden eller fra ét oplevelsespunkt til et andet, og den skaber en fornemmelse af sammenhæng i det ellers sammensatte materiale (som om det hele var optaget samtidig eller hang naturligt sammen).

Lyden skulle først og fremmest være ubemærket. Man skulle ikke tænke over musikken og lyden i sig selv, men den skulle fremme og understøtte fortællingen. Som filmkomponisten Leonid Sabaneev sagde: ”[Film] music should … always remain in the background. And it is bad business when this left hand begins to creep into the foreground and obscure the [whole].” (Sabaneev 1935: 22).

Denne tilgang til filmmusik medførte ofte, at filmskaberne brugte nogle velkendte musikstykker og lyde fra biblioteket (det der kaldes stock music og stock sound). Den nemmeste og hurtigste måde at illustrere højlandet på var ved at bruge en sækkepibelyd, og netop denne klichéfyldte brug af musik dannede grundlag for en hel bog af Theodor Adorno og Hanns Eisler (Composing for the Films, 1947). En bog, som blev overraskende kontroversiel, fordi den kritiserede Hollywoods smarte og standardiserede brug af filmmusik og slog til lyd for en alternativ måde at bruge musik og lyd på. Adorno og Eislers bog blev set som en kommunistisk kritik af Hollywood, og forfatterne blev derfor afhørt af HUAC-komiteen, hvorefter Eisler blev blacklistet.

Nye bølger, nye lydsystemer og nye lyttere: 1960-1975

De nye bølger i 1960’erne og 70’erne revolutionerede filmkunsten på mange måder, og man begyndte også at opleve en anden tilgang til filmlyden. Jean-Luc Godards À bout de souffle (1960, Åndeløs) brugte jazzmusik og brød det såkaldte soniske hierarki (der siger, at talen er den vigtigste lydkomponent, som hhv. musikken, lydeffekterne og atmosfærelyden skal vige for) ved ofte at lade musikken eller den diegetiske lyd overdøve talen. I Chantal Akermans News from Home (1976) er det sågar fortællerstemmen, som bliver overdøvet af reallyden. Nybølgefilmene var også nyskabende i deres til tider mere rå og realistiske udtryk, hvor de brugte mobile letvægtskameraer og locationoptagelser fremfor klassiske, kontrollerede studiooptagelser. Af samme grund var der også instruktører i tiden, som forsøgte at skabe en mere upoleret og realistisk lydoplevelse ved enten at bruge mange overlappende lydspor (Robert Altman) eller direkte lyd (Jean-Marie Straub og Danièle Huillet).

Fig. 12: American Graffiti (1973) blev et banebrydende eksempel på brugen af populærmusik i film, hvor musikken ikke er komponeret, men snarere kompileret til filmen. Dette greb er senere blevet kaldt Forrest Gumping, fordi samme brug af populærmusik kendetegner Oscarvinderen fra 1994.

Amerikanske film som The Graduate (1967), Midnight Cowboy (1969), Easy Rider (1969) og American Graffiti (1973) var særligt nyskabende i deres hippe brug af musik. En mere moderne og folkelig populærmusik som erstatning for den klassiske scoremusik, der på dette tidspunkt blev regnet som borgerlig. I enkelte film var der tale om nogle compilation scores, hvor forskellige popnumre af diverse bands dannede et slags jukeboxagtigt lydspor (dette gælder fx Easy Rider med sange som ”The Pusher”, ”Born to Be Wild” og ”If 6 was 9”), og i andre film var der tale om én gennemgående rockmusiker, der lavede et mere konsistent rock-score (altså hvor rocknumre af én musiker næsten kommer til at virke som en score i lighed med de symfoniske partiturer, vi kender fra klassiske film). Dette gælder bl.a. Simon and Garfunkels musik til The Graduate eller Cat Stevens’ musik til Harold and Maude (1971).

Der blev indført nye lydsystemer i forbindelse med introduktionen af nye filmformater i 1960’erne og 70’erne (bl.a. Sensurround-systemet som sendte buldrende lavfrekvenser ud i biografsalen til katastrofefilm såsom The Towering Inferno [1974] og Todd-AO, som bl.a. blev brugt i Stanley Kubricks forrygende 2001: A Space Odyssey [1968]). Instruktører som Alan J. Pakula og Robert Altman var banebrydende i deres arbejde med nye lydteknologier til at skabe et mere subjektivt og realistisk udtryk, og Altman-filmene Nashville (1975) og A Wedding (1978) udnyttede moderne knaphulsmikrofoner og flerspors-systemer til at skabe et kakofonisk sammenrend af forskellige off-screen- og on-screen-stemmer.

Fig. 13: I Robert Altman-filmen Nashville (1975) er der altid mange personer, som taler både i og udenfor billedet. Derfor anvendte Altman knaphulsmikrofoner og mange forskellige lydspor til at skabe en mere realistisk lydoplevelse.

De nye lydsystemer kunne give en større og mere voldsom filmoplevelse (som konkurrent til det fremadstormende tv-medie), og populær- og rockmusikken kunne tale til de unge og købestærke teenagere, der nu kunne købe musikken via soundtracks (et tidligt eksempel på rockmusik i film oplevede man i brugen af ”Rock Around the Clock” i ungdomsfilmen Blackboard Jungle [1957]). Denne konvergens og cross-promotion blev særligt populær efter 1962, hvor store mediekonglomerater begyndte at opkøbe både film- og musikselskaber og tjene penge på både film, plader og soundtracks. Og det turde indlysende, at tendensen blev mere udbredt efter 1981, hvor kanalen MTV blev født.

Fig. 14: Walter Murch mixer Apocalypse Now (1979). Billedet er stillet til rådighed af Murch.

En af de film, som brugte populærmusikken på en interessant og banebrydende vis var ungdomsklassikeren American Graffiti, hvor lydskaberen Walter Murch (fig. 14) afspillede de forskellige sange i forskellige rum for at give musikken en akustisk karakter, der passede til det enkelte rum. Dette princip kaldte Murch worldizing, og han troede selv, at han havde opfundet princippet indtil han senere skulle restaurere Orson Welles’ Touch of Evil (1958), som antageligt havde brugt selvsamme princip uden nogensinde at blive kendt for det. Som Murch udtrykker det:

George Lucas’ idea for the film was that there would be a continuous soundtrack, from beginning to end, except for two scenes. We would hear this rock ‘n’ roll radio station playing on all the radios in the town, whether it was coming from cars, drive-in restaurants or people’s homes. Wherever. And this posed a problem: How do you keep the soundtrack going like that without making everyone crazy? And we, for that film, used a technique which I had developed and used on The Rain People, THX 1138 and The Godfather – which is what I called worldizing, which is taking a tone, in this case music, and rerecording it acoustically in the same environment that you saw on the screen and in the final mix being able to balance the dry studio recording of the music with this reverberant field, but a reverberant field that has a particular character to it. (i: Albrechtsen & Halskov 2018)

Murch er nævneværdig, fordi han samtidig var en af de første lydskabere til at blive tituleret sound designer. Begrebet lyddesigner blev først introduceret i 1970’erne, og sammen med Alan Splet, Ben Burtt og Randy Thom var Murch med til at introducere en langt mere ekspressiv og kompleks brug af lyd. I et ellers fordistisk system, hvor mange forskellige arbejdere tjener forskellige funktioner, så er lyddesigneren den person, som har det overordnede lydlige ansvar. Han/hun er med fra filmens begyndelse og skaber nogle idéer til lyden i samarbejde med instruktøren og komponisten – ofte inden de første optagelser – og sidder med ved bordet indtil filmen er klippet og mixet færdig. Mens den tidlige tonefilm havde ét lydspor, og den klassiske film havde tre lydspor, så brugte Murch over 160 spor i Apocalypse Now (1979). En film, som excellerer i dynamiske skift mellem musik, støj og stilhed. Tænk blot på den klassiske krydsklipningssekvens, hvor de amerikanske soldater angriber den fredelige vietnamesiske landsby: Her er både Wagner, voldsomme skudsalver og vovede stilhedspassager. I én og samme sekvens.

Post-klassisk filmmusik og moderne lyddesign: 1975-2018

Filmfolk som Federico Fellini, Sergio Leone, Ingmar Bergman, Andrej Tarkovskij og Martin Scorsese legede også med stilhed og forskellige lydelementer på en nyskabende måde, og mens vi så en renæssance af den klassiske scoremusic med film som Jaws (1975) og Star Wars (1977) – ofte knyttet til komponister som John Williams, Danny Elfman, Alan Silvestri og Howard Shore – så oplevede man også en ny følsomhed overfor lydens betydning og funktionsmuligheder.

(Note: der kan læses mere om John Williams og hans betydning for den postklassiske filmmusik i Emil Christian Østergaards artikel andetsteds i dette nummer).

Fra 1980’erne og frem er lyden blev større, mere sammensat og mere kompleks. Lyddesigneren Gary Rydstrom kommer på mange måder til at inkarnerer denne udvikling, idet han er den første til at afprøve nogle af de nye lydsystemer, ikke mindst i sit samarbejde med Steven Spielberg.

Grænserne mellem elektroniske klangflader, støj, foley-lyd, effektlyd og forskellige typer af musik er blevet flydende. I Blade Runner (1982) får de langstrakte elektroniske motiver fx karakter af atmosfærelyd, og til tider flyder Vangelis’ musik sammen med lydeffekterne af flyvende billeder og regn, således at hele lydsiden bliver til én symfoni, hvor grænserne mellem musik, atmosfære- og effektlyd opløses. Det samme kan man opleve i den franske film Irréversible (2002), hvor de lave frekvenser nærmest fungerer som en kvalmende lydeffekt, og i slutningen af Lost Highway (1997) flyder alle de forskellige lydelementer (hovedpersonens skrig, Trent Reznors industrialmusik og de højlydte sirener fra politibilerne) sammen til én støjende kakofoni. Arbejdet med mange lydspor og en type af musik, der til tider lyder mere som støj eller atmosfærelyd (hvad man også oplever i gangsterfilmen Drive [2011]) skaber nogle mere kompakte og komplekse lyduniverser, hvor det kan være svært at skelne mellem de enkelte lydelementer og -kilder. Lyden designes ofte fra bunden i et tæt samarbejde mellem instruktør, komponist og lyddesigner. Af samme grund arbejder instruktører ofte sammen med faste lyddesignere: Gary Rydstrom arbejder sammen med Steven Spielberg, Jean-Pierre Jeunet arbejder sammen med Vincent Arnardi, Gaspar Noé arbejder sammen med Jean-Luc Audy, David Fincher arbejder sammen med Ren Klyce, Darren Aronofsky arbejder sammen med Craig Henighan, Paul Thomas Anderson arbejder sammen med Chris Scarabosio og Christopher Nolan arbejder sammen med Richard King.

Kristian Eidnes (fig. 2), der fungerer som Lars Von Triers faste lyddesigner og komponist, tænker eksempelvis på hele lydsiden som ét stort partitur, og i Antichrist (2009) er store dele af musikken frembragt med organisk materiale, uberørt af mennesker (grene, kviste, blade mv.) for derved at skabe en flydende grænse mellem diegetisk lyd, atmosfærelyd og musik. I Darren Aronofskys Black Swan (2010) bruges den menneskelige stemme til gengæld som en lydeffekt, og i hele filmen har lyddesigneren Craig Henighan brugt forskellige lag af Natalie Portmans ånde som et atmosfærespor, der samtidig integreres med musikken. En hel dag blev faktisk afsat til at optage et såkaldt ”breathing pass” med Portman og filmens ADR-supervisor (ADR står for advanced dialogue replacement og er det vi ofte kender som dubbing), for herved at kunne bruge hendes stemme som et egentligt lydelement. Ikke blot som et medie for dialog.

Fig. 15: Lyddesigneren Mark Mangini på arbejde i forbindelse med filmen Mad Max: Fury Road (2015). Billedet er stillet til rådighed af Mangini.

Mark Mangini (fig. 15), som er lyddesigner på bl.a. Raiders of the Lost Ark (1981), Die Hard (1988) og Mad Max: Fury Road (2015), mener at filmlyden er blevet et mere komplekst felt, men at mange af tidens blockbustere bruger et alt for voldsomt og unuanceret udtryk. Måske kan man tale om en slags overloadæstetik (som Langkjær udtrykker det), hvor vi konstant bombarderes med hurtig klipning og voldsomme lydindtryk, der høres fra alle steder i biografsalen. Da fjernsynsmediet pressede filmen i 1950’erne og 60’erne, reagerede filmindustrien med større lyd og bredere lærreder, og måske er der noget lignende på færde i disse dage. Populære tv-serier får filmindustrien til at satse på store franchises og voldsomme lydoplevelser med post-klassisk filmmusik, moderne lydformater (såsom Dolby Atmos) og buldrende lydeffekter.

Men det gode lyddesign udnytter dynamikken mellem musik, stilhed og støj, mellem intensitet og det, Kristian Eidnes kalder ”svage partier”, og den allermest modige film er måske den, der tør være stille.

Filmlyden har forandret sig voldsomt siden tonefilmens officielle gennembrud i 1927, og måske er vi ved at indse lydens og stilhedens potentiale. Teknologien har i al fald udviklet sig og givet mulighed for en langt større dynamik – en både fyldigere lyd og en mere mærkbar stilhed (som de stilhedspassager Ren Klyce bruger i The Last Jedi [2017]).

Men vi kan stadigvæk blive bedre til at bruge ørerne og til at høre den verden, der er omkring os og som vi oplever på biograflærredet. Som Mark Mangini udtrykker det:

[F]or millennia we’ve developed visual literacy. We have, perhaps, a genetic predisposition for visual literacy, whereas our aural literacy is less developed. It is something that we don’t have an education or a literacy in, being able to understand and appreciate the nuances of sound. Something that I bemoan often is that when even the best film reviewers review films, they reference the actors and perhaps the cinematography or the costumes, almost always neglecting the sonic dimensions. Because they don’t have the tools, I think. We are taught to finger paint, to craft wood, to draw. We are almost never taught to work with and appreciate sound. (i: Albrechtsen & Halskov 2018)

 

Citerede værker:

Adorno, Theodor & Hanns Eisler (1943/1947): Composing for the Films. London: The Athelone Press.

Albrechtsen, Peter & Halskov, Andreas (2018): Sound Design in Film and Television. Odense: Syddansk Universitetsforlag, under udarbejdelse.

Altman, Rick (2001): “Cinema and Popular Song: The Lost Tradition”, i: Pamela Robertson Wojcik & Arthur Knights (red.): Soundtrack Available: Film and Popular Music. Durham: Duke University Press, s. 19-30.

Brownlow, Kevin (1968/1969): The Parade’s Gone By… New York: Alfred A. Knopf.

Chion, Michel (1994): Audio-Vision: Sound on Screen. Translated by Claudia Gorbman. New York: Columbia University Press.

Gorbman, Claudia (1987): Unheard Melodies: Narrative Film Music. Bloomington & Indiana: Indiana University.

Halskov, Andreas (2009): ”Lad musikken tale”, 16:9, #31, april. Online: http://www.16-9.dk/2009-04/side04_feature1.htm.

Halskov, Andreas (2014): ”The Sound of Silence – stilhed på film,” 16:9, 28. august. Online: http://www.16-9.dk/2014/08/the-sound-of-silence-stilhed-paa-film/.

Halskov, Andreas (2016): ”16:9 Talks: Peter Albrechtsen,” 16:9, 24. oktober.

Halskov, Andreas (2017): ”16:9 Talks: Thomas Golubic,” 16:9, 13. august. Online: http://www.16-9.dk/2017/08/thomas-golubic/.

Langkjær, Birger (2000): Den lyttende tilskuer: Perception af lyd og musik i film. København: Museum Tusculanum Forlag.

Langkjær, Birger (2009): ”Filmlyd og filmmusik”, i: Søren Kolstrup (red.): Medie- og kommunikationsleksikon. Frederiksberg: Samfundslitteratur.

Langkjær, Birger (2014): ”Chauffør, spion, junkie, vampyr: Film, intensitet og det audiovisuelle,” i: Ansa Lønstrup et. al. (red.): Blik for lyd. Om lyd i kontekst. Aarhus: Klim, s. 13-30.

Sabaanev, Leonid (1935): Music for the Films: A Handbook for Composers and Conducters. Oversat af S.W. Pring. London: Sir Isaac Pitmans & Sons.