ABC Filmu
Słownik pojęć filmowych
Stefan Czyżewski, Piotr Sitarski
Niniejsze określenia pojęć filmoznawczych są uwarunkowane perspektywą warsztatową ich definiowania, pozostawać więc mogą w rozbieżnościach w stosunku do sposobów ich wyjaśniania w opublikowanych słownikach.
Rejestracja rzeczywistości
Pojęcie rejestracji rzeczywistości jest najważniejszą kategorią dotyczącą reprodukcji rzeczywistości w sztuce, nadrzędną w śródziemnomorskim kręgu kulturowym. Wynalezienie fotografii, później filmu, zwłaszcza w jego współczesnej, dźwiękowej i barwnej wersji, rozszerzanej przez efekty 3D, predestynują tę formę rejestracji ze względu na techniczne uwarunkowania zapewniające dokładność kopiowania. Kategoria ta obok tego, co oznacza w sensie filozoficznym, jest także jedną z najważniejszych kategorii filmoznawczych. W niniejszym słowniku „rejestracja” oznacza pojęcie zapisu wszelkich szczegółów tego, co znalazło się przed obiektywem rejestrującej kamery i mikrofonem.
Dodatkowym zagadnieniem jest pozorne rozdzielenie rzeczywistości realnie istniejącej przed obiektywem, zgodnej z autopsyjnym doświadczeniem widza i rzeczywistości „wytworzonej” przed obiektywem, ale takiej, której reguły nie są zgodne z autopsyjnym doświadczeniem widza, lecz jednocześnie wyznaczają one „realność” świata przedstawionego rzeczywistości filmowej. Oczywiście na problem ten nakłada się zagadnienie gatunku filmowego (współczesny, historyczny, a zwłaszcza science fiction i fantasy). Podział powyższy wydaje się jednak być nie do końca uzasadniony, gdyż kryterialne jest przecież istnienie materialnej rzeczywistości w celach jej zreprodukowania, bez względu na jej relacje z doświadczeniem autopsyjnym widza.
Jednakże, zwłaszcza we współczesnym filmie, nie wszystko to, co jest na ekranie, musiało fizycznie zaistnieć przed obiektywem. Nie było realnie konieczne, aby powstał obraz. W tym przypadku powstaje problem, co tak naprawdę jest zarejestrowane, czego to jest obraz? Brak jest więc pierwowzoru, choć istnieje jego obraz. W tym kontekście postawić należałoby pytanie, czy obrazy będące efektem zdjęć specjalnych i trickowych, czy współcześnie całkowicie generowane przez komputer są efektem rejestracji. Jeśli tak, to czego? Problem się znacznie upraszcza, jeśli przyjmiemy punkt widzenia odbiorcy, który nie jest świadomy, co było punktem wyjścia do procesu rejestracji. Więcej, świadomość ta jest mu niepotrzebna, gdyż odbiorca traktuje wszystko to, co na ekranie, jako jednorodną rzeczywistość świata przedstawionego filmu, niezależnie od jej źródeł.
Dotyczy to zarówno „rzeczywistości realnej”, znanej z doświadczenia autopsyjnego widza, jak też rzeczywistości wytworzonej, ale obcej tego typu doświadczeniu, wymagającej aprobaty widza na podstawie odmiennych doświadczeń, będących podstawą kompetencji kulturowych. Uwzględniając powyższe rozważania, mamy do czynienia z trzema rzeczywistościami:
- rzeczywistość realna znajdującą się w przestrzeni przedobiektywowej, stanowiącą podstawę standardowej rejestracji.
- rzeczywistość wirtualna wytworzoną współcześnie przez komputer (dawniej będącą rezultatem zdjęć specjalnych), jako realność konstruowana „sztucznie”, pomimo jej „prawdziwego obrazu”.
- rzeczywistość świata przedstawionego filmu (ta, która jest dla widza iluzją) – w znacznej części pochodna tego, co było przed obiektywem. W całości jednak jest to rzeczywistość wytworzona za pomocą filmowych środków wyrazowych.
Pierwsze dwa typy to rzeczywistości z punktu widzenia realizatorów, trzeci zaś – z perspektywy widza i dla kulturowego funkcjonowania filmu to on jest najważniejszy.
Definicja obrazu (jakość obrazu)
Widz musi wierzyć w obraz. Wiara ta jest tym większa, im obraz ten wierniej odtwarza wizualne składniki postrzegania rzeczywistości, symulując realność prezentowanego świata. Określenie definicji obrazu (jakości obrazu) obejmuje szereg obiektywnych, technologicznie uwarunkowanych parametrów, warunkujących podstawę owej wiary w realność odtwarzania składników postrzegania rzeczywistości. Składniki te, tj. elementy obrazu, powinny zapewnić jego czytelność na poziomie percepcji pasywnej. Prawidłowa ostrość i kontrast obrazu oraz prawidłowe odwzorowanie barw to główne parametry techniczne zapewniające pożądaną czytelność. Do innych należą:
- rozdzielczość, czyli ilość zróżnicowanych punktów na jednostkę powierzchni/długości (DPI);
- format rejestracji (taśma 16 mm / 35 mm / 70 mm);
- użycie taśmy barwnej lub czarno-białej;
- użycie danego zestawu ogniskowych obiektywów (z czego wynika głębia ostrości i odpowiednie parametry optyczne);
- konwencja oświetleniowa (realistyczna lub kreacyjna);
- kreacyjna sugestywność przestrzeni świata przedstawionego, dzięki której widz może uwierzyć w realność tego świata.
Wszystkie powyższe uwarunkowania znajdują się po stronie realizatorów i pracowników technicznych, gwarantujących zgodność z przyjętymi normami i standardami. Po stronie widza należy zdecydowanie podkreślić wagę technicznych warunków projekcji obrazu i odsłuchu dźwięku oraz stan kopii filmowej, gdyż to od nich zależy poziom wiarygodności wrażenia realności. Należy pamiętać, że twórcy filmów konstruują swe dzieła przeznaczone do dość wąsko określonych warunków odbioru: m.in. wyciemniona sala, jak największy ekran, a także do jednorazowej, tzn. nieprzerwanej projekcji, bez cofnięć, przyśpieszeń, itp.
Efekty specjalne (triki filmowe)
Historycznie, wszystko to, co było na ekranie, a nie znajdowało się bezpośrednio przed obiektywem rejestrującym, nazywane było zdjęciami (efektami) specjalnymi (trickowymi). Owa „specjalność” wymagała bądź niestandardowych, nierównych prędkości naświetlania w kamerze i odtwarzania w trakcie projekcji, skutkujące, np.: szybkim rozkwitaniem kwiatów (to te najprostsze), po inne efekty manipulacji czasem naświetlania względem czasu rejestracji danego procesu (wszelkie efekty przeciwne, kiedy na ekranie widzimy proces dziejący się w danym czasie, który w czasie projekcji odtwarzany zostaje w innym, niż rzeczywisty – tzw. ramping (zmiana prędkości w trakcie ujęcia), jak również stopklatki (ciąg identycznych klatek na taśmie filmowej, dających wrażenie nieruchomego obrazu).
Niestosowana obecnie nazwa zdjęcia kombinowane oznaczała głównie efekty wizualne realizowane często bezpośrednio „na kamerze”, tu przykładem mogą być wielokrotne naświetlenia tej samej taśmy skutkujące nałożeniem obrazów na siebie, ruch odwrotny (do tyłu), itp. Obecnie efekty te powstają w postprodukcji. Do tej grupy zdjęć zaliczyć można także zdjęcia w nienaturalnej skali odwzorowania, wymagające specjalnych obiektywów, czyli np. mikroskopowe i astronomiczne, wymagające np. specjalnych kamer rapidowych, pozwalających filmować bardzo szybko poruszające się obiekty.
Efekty specjalne to także wszelkie osiągnięte na ekranie efekty wizualne, do których podstawą nie była „rzeczywistość przedobiektywowa” rejestrowana w standardowym procesie zdjęciowym. Tu historia kina dostarcza wielu odmiennie uwarunkowanych przykładów. Od Podróży na księżyc (1902), po Forresta Gumpa (1994) rzeczywistość świata przedstawionego, referowana przez filmowych twórców jest wciąż oparta o dane wizualne restrukturyzujące realność przekazu.
W przemysłowej produkcji filmów nazwa efekty specjalne zostaje rozszerzona na wszelkie działania i zabiegi wyspecjalizowanych grup zawodowych – np. pirotechników, kaskaderów – którzy zapewniają możliwość zaistnienia na ekranie ujęć, jakich w normalnych warunkach sfotografować nie można i trzeba je zrealizować specjalnymi sposobami. Przykładami mogą być roboty w filmach science fiction, wypadki samochodowe, drastyczne sceny bójek, wybuchy, wystrzały, itp.
Obiektywy
Obraz filmowy jest efektem rejestracji trójwymiarowej rzeczywistości, która podlega transformacji przez obiektyw na dwuwymiarową płaszczyznę klatki filmowej. Efekt tej transformacji jest zależny m.in. od rodzaju obiektywu i jego parametrów. Przyjęty jest powszechnie podział obiektywów ze względu na kąt ich widzenia na trzy grupy: szerokokątne, o krótkich ogniskowych; standardowe, o ogniskowych średnich i długoogniskowe, o wąskich kątach widzenia (przyjęła się taka niekonsekwencja terminologiczna – szerokokątne, ale długoogniskowe).
Obiektywy standardowe
Odwzorowanie zarówno przestrzeni, jak i ruchu, niewykazujące zauważalnych odstępstw względem norm wizualnego postrzegania przez nas świata, jest możliwe tylko wówczas, gdy używany obiektyw powiela w tym odwzorowaniu geometryczne zależności, jakie zachodzą w naszym oku. Wyznaczone są one przez stosunek średnicy siatkówki do długości ogniskowej soczewki oka. Jeżeli przekątna klatki (średnica koła opisanego na prostokącie klatki) jest porównywalna z długością ogniskowej użytego obiektywu, wówczas powstające jako skutek takiego odwzorowania proporcje fotografowanych obiektów są analogiczne do tych, jakie zachodzą w oku jako rezultat percepcji siatkówkowej – stąd nazwa takiego obiektywu – standardowy. Oznacza to, że klasyfikacja obiektywów ze względu na kąt widzenia musi uwzględniać dany format klatki, z jakim obiektyw ten współpracuje: ta sama ogniskowa dla różnych formatów (np. 35 mm i 16 mm) skutkuje innym kątem widzenia. W praktyce równość długości ogniskowej i przekątnej klatki – jako kryterium standardu – oznacza dość znaczną tolerancję w obrębie tego samego rzędu długości ogniskowej, gdyż wrażenie zniekształceń odwzorowania perspektywicznego zależy w znacznej mierze także od odległości kamery od fotografowanego obiektu. Stąd też zakres ogniskowych, które można w oparciu o powyższą zależność uznać za standardowe, dla filmu 35 mm w formacie Akademii (tj. 1:1,375 – klatka o wymiarach 16×22 mm), zawiera się w przedziale 28 – 40 mm, a dla powszechnego w tradycyjnej fotografii formatu „małego obrazka” (też taśma o szerokości 35 mm, ale klatka 24×36 mm, o proporcjach boków 1:1,5) – w przedziale 40 – 60 mm. Odpowiada to kątom odwzorowania od około 30o do 45o. Operowanie wielkościami kąta odwzorowania nie przyjęło się z uwagi na zmianę, jakiej wartość ta podlega w zależności od ustawienia danego obiektywu „na ostro” – dla bliskich odległości od kamery kąt ten jest mniejszy, dla odległych – większy Dla praktyki realizacyjnej wielkości wartości standardowej ogniskowej zostały nieco podwyższone do odpowiednio 45 i 55 mm, z uwagi na konieczność, aż nader często, fotografowania z bliskich odległości zbliżeń aktorskich, co – jak już wyżej zostało wspomniane – decyduje o „zniekształceniu” odwzorowania.
Obiektywy szerokokątne
Pojęcie optyki szerokokątnej dotyczy, dla filmu 35 mm, ogniskowych poniżej 25 mm, osiągając krańcowo 10 mm, czyli rząd wielkości kąta odwzorowania ponad 90o. Tzw. fish eye ma ogniskową krótszą, lecz nie pokrywa równomiernie obrazem całej klatki, zostawiając rogi znacznie ciemniejsze – obraz jest w kole o ciemniejących brzegach. Obiektyw ten, stosowany od początku lat 70. w fotografii, nie znalazł praktycznie zastosowania w filmie.
Obiektywy długoogniskowe
Optyka długoogniskowa dla filmu 35 mm, to obiektywy o ogniskowej od około 85 mm do 1500 -1800 mm; można dzięki nim osiągnąć rząd wielkości kąta odwzorowania poniżej 1o. Z uwagi jednak na znaczne różnice w obrazie, wynikające z odmiennego charakteru odwzorowywania (kontrast, głębia ostrości), obiektywy od 85 mm (15o) do około 200 mm (7o) nazywane bywają średnioogniskowymi i są znacznie częściej stosowane, a te powyżej 200 mm noszą nazwę długoogniskowych.
Potocznie, choć niepoprawnie, obiektywy długoogniskowe nazywa się także teleobiektywami. Precyzyjnie rzecz ujmując, teleobiektyw to taki obiektyw długoogniskowy, który ze względu na konstrukcję optyczną ma ogniskową większą niż długość całego układu optycznego.
O ile – formalnie rzecz ujmując – istnieją różnice w opisanych wielkościach dla formatów: filmowego 35 mm i fotograficznego 35 mm, to zakres tych różnic jest wręcz pomijalnie mały w porównaniu do np. taśmy 16 mm czy też formatów zapisu cyfrowego, tak fotograficznego jak i wideo, zwłaszcza amatorskich, gdzie wielkość przekątnej klatki jest zdecydowanie mniejsza, osiągając np. dla „mini” DV – 6 mm. Producenci tego typu sprzętu, aby ułatwić użytkownikowi jego stosowanie, podają wówczas parametry „przeliczeniowe” obiektywu (głównie długość ogniskowej), czyli tak, jakby to był sprzęt małoobrazkowy – z uwagi na olbrzymią popularność tego formatu i długotrwałość jego stosowania.
(zoom)
To specyficzny rodzaj obiektywu (wieloogniskowy) posiadający możliwość płynnej zmiany ogniskowej (kąta widzenia) w trakcie ujęcia, dając na ekranie efekt zbliżony do najazdu/odjazdu kamery. Ze względu na trudności techniczne w konstrukcji transfokatorów, uzyskany dzięki nim obraz optyczny ma gorsze parametry od obiektywów stałoogniskowych. Z tego powodu jest względnie rzadko stosowany w filmie fabularnym. Zakres zmian długości ogniskowej to np. 25 – 250 mm.
Przestrzeń i ruch (w zależności od rodzaju obiektywu)
Efekty transformacji przestrzeni i odwzorowania ruchu przy stosowaniu obiektywów standardowych nie odbiegają od zestereotypizowanych poprzez powszechność doświadczenia standardów percepcji „naocznej” – nie mają więc charakteru stylotwórczego.
W obiektywach szerokokątnych sytuacja jest kompletnie odmienna. Następuje „zgniecenie” zarówno horyzontalne, jak i wertykalne, na małą powierzchnię klatki, przestrzeni zdjęciowej odwzorowywanej w znacznie szerszym kącie. Efektem tego jest, jako skutek pozornego pomniejszenia, oddalenie przedmiotów znajdujących się w większej odległości od kamery, przy jednoczesnym, jako skutek pozornego powiększenia, przybliżeniem przedmiotów znajdujących się w bliższej odległości od kamery. Następuje silne, proporcjonalne do zmniejszającej się ogniskowej, zdynamizowanie przestrzeni, które wyraźnie widoczne jest w efektach transformacji ruchu wzdłuż osi obiektywu. Ruch ten, do/od kamery, zostaje pozornie przyśpieszony, czyli np. aby nastąpiła zmiana w wielkości planu pochodzącego do kamery aktora, z amerykańskiego do zbliżenia, wystarczy, aby wykonał on niecałe dwa kroki, co trwa ułamek sekundy. Ruchy poprzecznoosiowe pozornie ulegają zwolnieniu, gdyż w szerokim kącie odwzorowania, w danym planie, aktor może przejść prostopadle do osi obiektywu kilka kroków bez potrzeby wyrównywania za nim panoramą. Cechą charakterystyczną obiektywów tego typu jest duża głębia ostrości.
W obiektywach długoogniskowych następuje typowe dla patrzenia przez lornetkę „ściągnięcie” przestrzeni wzdłuż osi obiektywu, efekt spiętrzenia planów. Przedmioty odległe wydają się być blisko, z kolei te, które znajdują się w rzeczywistości blisko, zasłaniają jako nieostro odwzorowane znaczną część kadru, jednocześnie te, które są nawet nieznacznie oddalone od osi optycznej (centrum kadru), zostają poza kadrem. Wszystko to jest rezultatem odwzorowania w wąskim kącie widzenia. Z tego też względu ruch poosiowy, czyli „do” lub „od” kamery, odwzorowywany jest pozornie ze zwolnieniem (wynika to z konieczności przebycia w realnej przestrzeni zdjęciowej znacznej często odległości, którą obiektyw, „ściągając”, pozornie skraca na obrazie). W praktyce oznacza to możliwość wydłużenia ujęcia dojścia/odejścia aktora do/od kamery bez zdecydowanie czytelnego zwiększenia/zmniejszenia wielkości planu. Z kolei ruch poprzecznoosiowy odwzorowywany jest pozornie ze zwiększoną dynamiką, gdyż czas potrzebny do przejścia przez kadr w wąskim kącie odwzorowania jest relatywnie krótki. Cechą charakterystyczną obiektywów tego typu jest płytka głębia ostrości.
Głębia ostrości (głębia pola)
W każdych warunkach zdjęciowych wszelkie przedmioty tworzące scenografię znajdują się w różnych odległościach od kamery. Z uwagi na dość złożone zależności geometryczne, tylko część owych przedmiotów może być odwzorowana „na ostro”, tylko te które znajdą się właśnie w przedziale głębi ostrości (czasem nazywanej „głębią pola”). Głębia ostrości jest to przedział przestrzeni wyznaczony od najbliższego w stosunku do kamery przedmiotu do najdalej względem niej położonego, przy czym przedmioty te, wraz ze wszystkim, co znajduje się pomiędzy nimi, zostają odwzorowane na ekranie jako „ostre”. Wielkość tego przedziału przestrzeni zależy od wielu czynników, najważniejsze z nich to właśnie długość przekątnej formatu zdjęciowego (czyli wielkość klatki) i kąt odwzorowania obiektywu (długość ogniskowej). Ważna jest także odległość kamery do pierwszego planu, na którą ustawiona jest ostrość. Dla tych samych warunków (tj. długość ogniskowej, poziom światła i format klatki) bliskie ustawienie ostrości skutkować będzie węższym przedziałem ostrości. Warto wspomnieć tu rolę przysłony (służącej właśnie do regulacji poziomu światła w procesie naświetlania negatywu), której liczbowa wartość (najczęściej w przedziale od 1,4 do 22) jest we wprost proporcjonalnej zależności w stosunku do wielkości głębi ostrości, jaką przysłona „wymusza” w trakcie fotografowania. Długość ogniskowej i długość przekątnej formatu zdjęciowego są z kolei w stosunku do wielkości głębi ostrości w zależności odwrotnie proporcjonalnej (przedział głębi ostrości maleje wraz ze wzrostem ogniskowej bądź zwiększeniem wielkości klatki). Łatwo zauważyć (co jest typowe dla zjawisk uwarunkowanych wprost i odwrotnie proporcjonalnymi zależnościami), że dana głębia ostrości może być skutkiem zastosowania długoogniskowego obiektywu i „kompensacyjnie” dużej przysłony, jak i odwrotnie, rezultatem obiektywu szerokokątnego, małej przysłony i bliskiej odległości do pierwszego planu. Tak rzeczywiście jest, przynajmniej w znacznym zakresie relacji pomiędzy omawianymi parametrami. Dwa ujęcia przedstawiające ten sam obiekt z taką samą głębią ostrości mogą się zatem znacznie różnić ze względu na odmienny charakter odwzorowania przestrzeni i innego rodzaju transformację ruchu jako efekty zastosowania różnych ogniskowych.
Głębia ostrości jest jednym z najważniejszych środków wyrazowych o rodowodzie technicznym. Opozycja ostre/nieostre oznacza przecież przeciwieństwo: bezpośrednio czytelne/niewyraźne, co przy uwzględnieniu aspektu czasowego trwania ujęcia oznacza możliwość sterowania nośnością informacyjną obrazu, a więc kształtowanie znaczeń poprzez wymuszanie sposobu percepcji. Na innym poziomie budowy obrazu filmowego opozycja ostre/nieostre, wraz z wielkością nieostrości – zwłaszcza dla obrazu barwnego – jest ważnym składnikiem stylu fotograficznego, wyznaczając wartości plastyczne ujęcia. Stylotwórcza wartość tego technicznego środka wyrazu bywa często stosowana jako specyficzny rodzaj przetworzenia danych obrazowych, znacznie różniący się od sposobu postrzegania przez nas świata. Przedział głębi ostrości zostaje zawężany do takiego stopnia, że przesuwanie płaszczyzny ostrości z planu pierwszego na dalszy staje się rodzajem chwytu narracyjnego nazywanego ostrością selektywną. Oznaczone jest w niej to, na co widz ma w danym momencie ujęcia patrzeć.
Światło w filmie (oświetlenie planu filmowego)
Oświetlenie planu filmowego stanowi we współczesnym filmie jeden z najważniejszych środków wyrazowych. Jest podstawą kreacji obrazu filmowego, kształtuje nastrój zarówno scen, jak i całego filmu, akcentuje ważność elementów w kadrze w trakcie ujęcia, wraz z kompozycją kadru współorganizuje percepcję wizualną. W innym aspekcie, jako przynależne do świata przedstawionego filmu, efekty wynikające z jego stosowania porządkują strukturę czasową akcji (np.: dzień czy noc), współtworząc realizm scen filmowych.
Ilość światła jest z punktu widzenia energetycznego niezwykle istotna, gdyż dopiero po przekroczeniu pewnego jej poziomu możliwa jest rejestracja obrazu. Ilość ta zależna jest od czułości taśmy filmowej, jasności obiektywu i prędkości filmowania zmieniającej efektywny czas naświetlania pojedynczej klatki – np. przy dwukrotnym zwolnieniu ruchu na ekranie dwukrotnie krócej naświetlana jest każda klatka (standardowo 24 kl. na sek., czyli czas naświetlani jednej klatki wynosi 1/48 sek.). Jasność obiektywu (parametr określający ilość światła przepuszczanego przez obiektyw) i czułość taśmy (parametr określający możliwość naświetlenia negatywu przez dany poziom natężenia światła) to dwa główne ograniczenia uniemożliwiające jeszcze do niedawna filmowanie w każdych warunkach oświetleniowych. Filmowanie w ogóle, a więc przebieg „na energetycznym poziomie” procesu rejestracji obrazu tego wszystkiego, co znajduje się przed obiektywem – jeszcze bez możliwości kreacyjnego wpływu światłem na stronę wizualną filmu.
Równolegle z rozwojem techniki następowało przeobrażenie roli światła w powstawaniu obrazu filmowego, jak również zmiana funkcji autora zdjęć – od inżyniera odpowiedzialnego za właściwe naświetlenie taśmy negatywowej do współtwórcy filmu, oświetleniem kreującego jego warstwę wizualną. Rozwój ten jest ponadto także zgodny z ogólnymi prawami ewolucji danego medium w kulturze. Musi bowiem nastąpić stan nasycenia wielokrotnością używania danych środków wyrazowych (w filmie mają one bardzo techniczny rodowód), aby można było mówić o dojrzałości technicznej medium. Jest to warunek konieczny do zaistnienia przekazów typu artystycznego, opartych na skodyfikowanych kulturowo regułach wykorzystywania owych środków wyrazowych, które konstytuują się poprzez powszechną akceptację rezultatów takiego wielokrotnego użycia. Odnośnie wykorzystania światła w filmie barwnym, kino na ten poziom rozwoju czekało prawie 60 lat.
Przemysłowe wytwarzanie filmu, wraz ze związanymi z nim wszystkimi rygorami uwarunkowań ekonomicznych, wymusza maksymalną efektywność procesów produkcji. W tej sytuacji stosowanie nowych rozwiązań technologicznych jest normalnym procesem sprzęgniętym z rozwojem cywilizacyjnym, przebiegającym równolegle we wszystkich gałęziach przemysłu, także w kinematografii. A to właśnie nowe technologie umożliwiają wykonywanie zdjęć wszędzie i w każdych warunkach, co z przyczyn ekonomicznych jest niezwykle ważne. Ważniejsze są jednak skutki artystyczne, otóż powszechna wśród twórców świadomość tej możliwości redukuje ograniczenia ich wyobraźni, pozwala na bezkompromisowe rozwinięcie ich własnych wizji, bez ulegania kompromisom technicznym.
Rodzaje światła
Podstawowe zróżnicowanie jakościowe strumienia światła, tworzące wyrazistą odmienność plastyczną obrazu filmowego, wynika ze stopnia rozproszenia światła i jego cieniodajności. Tu operatorzy obrazu filmowego nie stworzyli nic nowego – wzorce daje natura. Dwa skrajnie przeciwstawne modele oświetlenia, w przyrodzie obecne od zawsze, niezmienne kształtują typ naszego doświadczenia wizualnego, tworząc rodzaj wzorców postrzeżeniowych. Modele te to „dzień słoneczny” (a także, co jest swego rodzaju paradoksem, noc księżycowa) i „dzień pochmurny”.
Modelowe światło dnia słonecznego jest światłem bezpośrednim (na drodze od źródła, jakim jest słońce, do oświetlanych obiektów nie znajduje się żadna przeszkoda), inaczej zwane skierowanym (jest bezpośrednio skierowane na obiekt), jego działanie powoduje powstanie kontrastowego światłocienia o wielokrotnie jaśniejszych miejscach znajdujących się na obszarach oświetlonych (światła obiektu) od nieoświetlonych bezpośrednio miejsc w cieniu (cienie obiektu). Najbardziej charakterystyczną cechą tego typu oświetlenia, oprócz kontrastu, jest charakter przejścia od miejsca oświetlonego do zacienionego – jest to ostra linia stanowiąca granicę światła i cienia. Ten sposób oświetlenia wzmaga wrażenie przestrzenności obrazu jako efekt wzmocnienia światłocieniem brył obiektu. Atrakcyjnie wygląda każdy nieomal obiekt, jeśli obserwowany jest „pod światło”. Olbrzymi kontrast, jaki jest rezultatem aż tak ostrego, skierowanego (twardego) światła, jest praktycznie niemożliwy do zarejestrowania na najbardziej nawet profesjonalnym nośniku zapisu obrazu, z pełną czytelnością szczegółów zarówno w światłach, jak i w cieniach równocześnie. Jeśli chwilę się zastanowimy, przypominając sobie taką sytuację, dojdziemy do wniosku, że oko nasze też nie jest w stanie takiemu wyzwaniu sprostać (wystarczy przypomnieć sobie doświadczenie wizualne, gdy w letnim dniu słonecznym wchodzimy z podwórka do nieoświetlonej klatki schodowej).
Modelowe światło dnia pochmurnego jest światłem pośrednim (na drodze od źródła, jakim jest słońce, do oświetlanych obiektów znajduje się do pewnego stopnia przeźroczysta przeszkoda – warstwa chmur). Światło to inaczej zwane jest rozproszonym (nie jest bezpośrednio skierowane na obiekt – rozpraszają je chmury). „Pośredniość” polega na tym, że praktycznie źródłem światła stają się jednakowo jasne (tak modelowo założyliśmy) chmury. Daje to efekt praktycznie bezcieniowego, miękkiego światła. Brak światłocienia powoduje zanik przestrzenności i niwelowanie brył przedmiotów tworzących obiekt, a poprzez to jego wypłaszczenie. Całkowity brak kontrastu oświetlenia pozwala na względną łatwość rejestracji lokalnych zróżnicowań walorowych i kolorystycznych powierzchni obiektu.
Oba modele oświetlenia, skierowane (bezpośrednie) i rozproszone, są w praktyce dnia codziennego niedostrzegane, jednakże w sztuce europejskiej eksploatowane od wieków przez malarzy, później fotografów i operatorów. Niedostrzeganie, na co dzień, różnic w świetle zmieniających obraz otaczającego nas świata wynika z braku praktycznego przełożenia tych różnic na wartości utylitarne – stąd przecież łatwo dostrzegamy, że świeci słońce (czyli „jest pogoda”), a nie widzimy różnic w stopniu głębokości światłocienia słonecznego przy częściowo zachmurzonym niebie. Nakładają się tu także zdolności akomodacyjne oka – doskonale widzącego szczegóły zarówno w światłach jak i w cieniach.
Oba powyżej scharakteryzowane rodzaje światła występują w praktyce nieomal zawsze razem. W plenerze, w dzień słoneczny, bezpośrednie światło słońca nie dociera wszędzie, w wytworzonych przez nie cieniach istnieje światło nieboskłonu (błękitnego lub częściowo pochmurnego). We wnętrzach, np. w pokoju, światło żyrandola wiszącego na suficie też nie dociera wszędzie, ale na skutek odbijania się od sufitu i ścian tworzy się światło rozproszone, oświetlające zacienione miejsca.
Kolor światła
Na całkowity efekt plastyczny oświetlenia oprócz światłocienia ogromny wpływ ma także kolor światła, czyli sposób, w jaki nasz aparat percepcyjny postrzega długość fali elektromagnetycznej w zakresie widzialnym. Kolor światła decyduje o prawidłowości odwzorowania kolorystycznego filmowanych obiektów. Należy zauważyć, że zróżnicowania w kolorystyce otaczających nas przedmiotów, jakie zachodzą pod wpływem zmian składu spektralnego (koloru) światła np. podczas dnia nie są również na bieżąco przez nas postrzegane. Nabyta wiedza o kolorze przedmiotów i mechanizmy akomodacyjne zachodzące na siatkówce oka, jak również brak bezpośredniego przełożenia semantycznego tych zmian, uniemożliwiają dostrzeganie tego zjawiska. Aby zostać dostrzeżonymi, zmiany te muszą doprowadzić do zdecydowanie wyraźnych rezultatów, jakimi są przesunięcia kolorystyczne w gamie barw w kierunku ciepłym (czerwieni) lub chłodnym (błękitu). Potwierdzenie tej tezy łatwo znaleźć w otaczającym nas świecie, gdy wnikliwie przyjrzymy się kolorom przedmiotów w świetle zachodzącego słońca oraz w południe w pełnym słońcu i w cieniu np. wysokiego budynku (gdzie podczas dnia słonecznego dochodzi tylko światło błękitnego nieba). Łatwiej jednak zmiany te zauważyć na zdjęciach (tzn. po ich zarejestrowaniu), zwłaszcza zestawionych obok siebie, gdzie np. śnieg o zachodzie jest „pomarańczowy”, podczas dnia „biały”, a w cieniu „niebieski”. Śnieg w powyższym przykładzie nie jest przypadkowy, opisane zmiany, bowiem bardziej są dla naszego oka czytelne na powierzchniach białych czy szarych – tzw. achromatycznych (bezbarwnych), niż barwnych, a kolory o dużym nasyceniu w praktyce takich zmian nie ujawniają. Analogiczne różnice można dostrzec stosunkowo łatwo, gdy o wczesnym zmierzchu, kiedy we wnętrzu jest zbyt ciemno, by móc np. czytać, włączamy światło żarówek – wówczas przy porównywalnych poziomach natężenia światła (z okna i żarówki jest porównywalnie jasno) wyraźnie widzimy niebieskawy odcień światła okien i żółtopomarańczowy odcień światła żarówek. Jest to zjawisko tzw. „kontrastu współczesnego barw” (w tym przypadku świateł) polegające na „wzmacnianiu” intensywności wrażeń barwnych przy sąsiedztwie kolorów przeciwnych (niebieski i żółty), od dawna znane w malarstwie, eksploatowane zwłaszcza w impresjonizmie.
Balans barwny
Psychofizjologia wrażeń barwnych jest dziedziną niezwykle skomplikowaną i nie do końca jeszcze rozeznaną, głównie ze względu na znaczny stopień zindywidualizowania wrażeń barwnych. Z punktu widzenia obiektywnych praw fizyki, tzw. lokalny kolor przedmiotu zależy od koloru jego barwnika, zależnie jednak od koloru światła, w jakim jest oglądany (filmowany), może ulegać zmianom, np.: przedmioty niebieskie w żółtym świetle stają się prawie czarne. Dlatego kolory określane są dla tzw. „światła równoenergetycznego”, zawierającego w swoim składzie spektralnym wszystkie kolory tęczy w takich samych ilościach. Światło równoenergetyczne to wzorzec światła białego, średnie światło dnia (daylight – 5600 kelwinów), wykorzystywane przy „zbalansowaniu” materiałów światłoczułych i kamer wideo używanych dla rejestracji w świetle dziennym. Obecność wszystkich barw w jego widmie i równomierna (zagwarantowana zbalansowaniem) czułość na wszystkie barwy stosowanego systemu rejestracji, gwarantuje prawidłowe odwzorowanie kolorystyczne obiektu.
Historia rozwoju technologii sztucznych źródeł światła dla potrzeb rejestracji w atelier, później we wnętrzach naturalnych (ze względu na rodzaj materiałów stosowanych do budowy tych źródeł – wolfram jako materiał żarników), doprowadziła do standaryzacji, równolegle, drugiego wzorca światła białego (tungsten – 3200 kelwinów), który uwzględniany zostaje przy „zbalansowaniu” materiałów światłoczułych i kamer wideo dla rejestracji w świetle sztucznym. W jego widmie również obecne są wszystkie kolory tęczy, lecz w niejednakowych proporcjach ilościowych: niedomiar niebieskich (chłodnych) barw i nadmiar czerwonych (ciepłych), w stosunku do obszaru zieleni (środkowa część widma). Rejestracja barw przebiega prawidłowo ze względu na odpowiednią czułość spektralną materiałów światłoczułych zbalansowanych do światła sztucznego, uwzględniających owe nieproporcjonalności ilościowe. Tu należy dodać, iż wszystkie współczesne systemy rejestracji obrazu barwnego opierają się o jednoczesny zapis trójskładnikowych danych o czerwieni (R), zieleni (G) i niebieskości (B), analogicznie jak proces barwnej percepcji przebiega w naszym oku.
Powyższe uwarunkowania prawidłowej reprodukcji kolorystycznej z punktu widzenia możliwości technologicznych, doprowadzone w kinematografii do perfekcji od prawie dwudziestu lat, współcześnie nie stanowią już przedmiotu dążeń, a wręcz przeciwnie, ich standaryzacja wyzwala artystyczną potrzebę jej przekraczania. Z drugiej strony ów wysoki poziom technologiczny zapewnia możliwość kształtowania niuansów w odwzorowaniu barwnym, polegających głównie na nieznacznych przesunięciach gamy kolorystycznej w kierunku barw ciepłych lub zimnych, wspomagających nastrojotwórcze działanie światła. Zmiany te nie są postrzegane świadomie, lecz oddziałują na mocy praw psychologii wrażeń barwnych na emocjonalną postawę odbiorcy.
High key (wysoki klucz)
Określenie to dotyczy efektu plastycznego obrazu filmowego (także fotograficznego), który na pierwszy rzut oka charakteryzuje się jasnością skali szarości pastelową kolorystyką. Rzeczywiście jest to efekt wizualny związany z oświetleniem, które polega na miękkim, niekontrastowym, świetle, o prawidłowej temperaturze barwowej (tj. kolorze – bieli) oraz nieznacznym prześwietleniu negatywu (więcej światła niż to jest potrzebne z punktu widzenia energetycznego). Jednocześnie – co należy szczególnie podkreślić – niesłychanie ważna jest rola scenografii i kostiumów. Wszystko to, co znajduje się przed obiektywem, przede wszystkim musi być jasne. W rezultacie na ekranie widzimy „jasne na jasnym”. Psychofizjologiczne uwarunkowania odbioru tak zorganizowanego obrazu są oczywiste: akceptacja emocjonalna, radość, podniosłość, itp.
Low key (niski klucz)
Określenie to dotyczy efektu plastycznego obrazu filmowego (także fotograficznego), który na pierwszy rzut oka charakteryzuje się ciemną skalą szarości brakiem pośrednich odcieni kolorystycznych. Rzeczywiście jest to efekt wizualny związany z oświetleniem, które polega na twardym, kontrastowym świetle, o prawidłowej temperaturze barwowej (tj. kolorze – bieli) oraz nieznacznym niedoświetleniu negatywu (mniej światła niż to jest potrzebne z punktu widzenia energetycznego). Jednocześnie – co należy szczególnie podkreślić – niesłychanie ważna jest rola scenografii i kostiumów. Wszystko to, co znajduje się przed obiektywem – przede wszystkim – musi być ciemne. W rezultacie na ekranie widzimy „ciemne na ciemnym”! Psychofizjologiczne uwarunkowania odbioru tak zorganizowanego obrazu są oczywiste: negatywne emocje, smutek, dezaprobata itp.
Oba scharakteryzowane powyżej efekty wizualne można utożsamić z „jasnym ekranem” i „ciemnym ekranem”, gdyż nakłada się na takie rozróżnienie problem „dzień czy noc”, jak również, choć w mniejszym stopniu, zagadnienie poetyki gatunkowej, np. film noir. Łatwo jest efekty low i high odróżnić od dnia lub nocy na ekranie, kiedy zastosujemy kryterium „jasnego” lub „ciemnego” tego, co było „przed obiektywem”, czyli scenografii i kostiumów, gdyż to jest jedyny sposób ich identyfikacji.
Funkcje światła
Ich rozróżnienie powstaje poprzez uwzględnienie zależności pomiędzy miejscem usytuowania źródła światła wobec filmowanego obiektu i skierowanej na niego kamery. Łatwo wyobrazić sobie trójkąt, którego wierzchołkami są punkty: kamera, źródło światła i obiekt (w filmie, najczęściej aktor). W zależności od kształtu tego trójkąta zmieniać się będzie sposób oświetlenia obiektu względem kamery, głównie różniąc się charakterem powstającego światłocienia.
Schemat oświetlenia
Akademicki schemat oświetlenia składa się z czterech zasadniczych źródeł światła: rysującego, wypełniającego, kontrowego i oświetlającego tło. Każde z tych źródeł pełni inną funkcję, każde może być inaczej usytuowane względem kamery i obiektu, każde może dawać różny poziom natężenia światła, każde może mieć inny kolor (temperatura barwowa) i różny charakter strumienia światła (stopień twardości/miękkości). Schemat ten realizowany jest zwłaszcza w warunkach studyjnych (w atelier), we wnętrzach naturalnych nie zawsze można go zastosować (mała powierzchnia, niski sufit itp.), w plenerach jest możliwy i bywa stosowany w produkcjach wysokobudżetowych (specjalistyczny sprzęt i reflektory dużych mocy). W dużych przestrzeniach zdjęciowych bywa często wykorzystywane dodatkowe źródło – światło ogólne.
Światło kluczowe
Inaczej nazywane rysującym bądź też zasadniczym, głównym. Wszystkie te nazwy podkreślają prymarność tego źródła w budowaniu efektu oświetleniowego. Faktycznie tak jest, gdyż rozkład światłocienia (modelunek światłocieniowy) na filmowanym obiekcie staje się głównym kluczem plastycznym ujęcia i sceny. Klucz ten powstaje głównie jako skutek oświetlenia głównego fragmentu przestrzeni filmowanej, czyli pierwszego planu (najczęściej aktora). Sposób jego usytuowania w akademickim schemacie oświetlenia portretu jest „przednio-górno-boczny” w stosunku do pozycji en face filmowanego aktora. Ponieważ światło to jest najważniejsze, jego źródło może być usytuowane praktycznie dowolnie, w zależności od danej koncepcji artystycznej. Właśnie funkcja artystyczna jest podstawową, jaką pełni światło rysujące.
Światło wypełniające
Pełni głównie rolę „technologiczną”, zwłaszcza w oświetlaniu we wnętrzach. Głównie dla planu pierwszego wypełnia wytworzone na nim przez światło rysujące cienie, zapewniając możliwość zarejestrowania ich szczegółów. Wraz ze światłem rysującym – tu określają to proporcje pomiędzy ich poziomami – tworzy kontrast oświetlenia, bardzo ważny środek wyrazowy, nadający zdjęciom filmowym dany styl.
Światło kontrowe
Nazwa pochodzi od pozycji jego ustawienia – naprzeciw względem kamery, tj. z tyłu obiektu, częściej z góry, ponad i poza nim. Z powodu skierowania strumienia światła w kierunku kamery, to z jej punktu widzenia zostaje podświetlony kontur obiektu otrzymującego „obrys światłem”. Z tego powodu bywa nazywane światłem konturowym. Dzięki niemu fotografowane obiekty zostają odcięte od tła, co skutkuje powiększeniem wrażenia przestrzenności na płaskim ekranie.
Światło tła
Umożliwia zarejestrowanie szczegółów tła, powinno oświetlać je niezależnie, tzn. nie kolidując z wypełniającym, a zwłaszcza z rysującym, które ustawione jest dla pierwszego planu. Relacja pomiędzy poziomami oświetlenia tła i planu pierwszego decyduje również o wrażeniu przestrzenności, a jednocześnie określa stopień czytelności planu pierwszego.
Światło ogólne
Stosowane w dużych przestrzeniach zdjęciowych do oświetlania fragmentów filmowanego obiektu w przestrzeni pomiędzy pierwszym planem a tłem, fragmentów stanowiących drugi i dalsze plany w danym ustawieniu kamery. Najczęściej umieszczane ponad filmowaną przestrzenią, jest przedłużeniem światła wypełniającego cienie planu pierwszego.
Kadr
Kadr to pojedyncza klatka na taśmie filmowej, wyświetlona na ekranie kinowym albo telewizyjnym. Taśma filmowa naświetlana jest w kamerze, rejestrując ruch w przestrzeni (w przypadku filmu żywego planu) lub też – w przypadku filmu animowanego – nieruchome obiekty. Następnie projektor kinowy wyświetla 24 nieruchome klatki w ciągu sekundy, co daje złudzenie ruchu na ekranie.
Kadr jest horyzontalnie ułożonym prostokątem o stałych proporcjach boków (zwanych formatem kadru), zawierającym w swych ramach obraz filmowy. W kinie stosuje się szereg formatów kadru. Tradycyjny, zwany formatem Akademii (nazwa pochodzi od Amerykańskiej Akademii Sztuki i Wiedzy Filmowej, tej samej, która przyznaje nagrody potocznie zwane Oscarami), ma proporcje 1,375:1. Formaty kaszetowane mają proporcje 1,85:1 lub 1,66: 1. Uzyskuje się je, przysłaniając górę i dół klatki na taśmie filmowej specjalną ramką zwaną kaszetą, w rezultacie czego kadr jest szerszy niż w formacie Akademii. Format szerokoekranowy (proporcje 2,35:1) otrzymuje się przez zastosowanie w kamerze i projektorze filmowym specjalnych obiektywów anamorfotycznych, które ścieśniają obraz podczas rejestracji, a potem przywracają mu właściwe proporcje podczas projekcji.
Ponieważ film wywodzi się z europejskiej tradycji sztuk plastycznych, kompozycja kadru ma swe źródła w fotografii, a wcześniej – w malarstwie. Klasyczną kompozycję kadru wyznaczają mocne punkty: cztery punkty (położone mniej więcej na przecięciu pionowych i poziomych linii dzielących kadr na 9 części). Zgodnie z zasadami fizjologii postrzegania przestrzeni, obserwator, patrząc swobodnie przed siebie, zwraca na te punkty najwięcej uwagi. Jeśli więc twórca chce ułatwić proces postrzegania obrazu, powinien ważne informacje wizualne umieścić właśnie w mocnych punktach. Trzeba zwrócić uwagę, że efekt ten działa tylko wówczas, gdy obraz, na przykład ekran kinowy albo telewizyjny, w całości wypełnia pole widzenia widza.
Patrząc na ekran, widzimy w nim pewną całość zamkniętą ramami kadru. Zarazem jednak rozumiemy, że ramy te wycinają tylko pewien fragment przestrzeni filmowej, a poza nimi rozciąga się ona dalej. Ta niewidoczna, ale domniemana przez widza przestrzeń nazywana jest przestrzenią pozakadrową. Rozciąga się ona poza ramy kadru, a także w przód, od obrazu do widza. Nie musi istnieć realnie: w rzeczywistej przestrzeni, gdzie kręci się film, poza polem widzenia kamery może znajdować się sprzęt, ale widz będzie wyobrażał sobie na przykład krajobraz, na który patrzy postać w kadrze. Choć przestrzeń pozakadrowa jest niewidoczna, pełni istotne funkcje w narracji filmowej, na przykład może ukrywać tożsamość albo reakcje osób znajdujących się poza kadrem. Przestrzeń zawarta w kadrze i pozakadrowa składają się w sumie na przestrzeń diegezy, czyli świata filmu.
Mise-en-scéne
Zawartość kadru zależy od organizacji przestrzeni przed kamerą (czyli mise-en-scéne) oraz od ustawienia kamery względem tej przestrzeni (czyli kadrowania). Mise-en-scéne, inaczej inscenizacja, to wszystko to, co rejestruje kamera, a więc dekoracje, oświetlenie postacie, ich kostiumy i zachowanie. Najważniejszym składnikiem mise-en-scéne jest scenografia, czyli całościowa oprawa plastyczna filmu, na którą składają się dekoracje i rekwizyty.
Film może być realizowany na otwartym powietrzu, to znaczy w plenerze, albo też we wnętrzach. W każdym z tych przypadków filmowcy mogą wykorzystać przestrzeń zastaną (naturalną) albo posłużyć się dekoracjami, czyli specjalnie zbudowanym tłem zdjęć filmowych. Dekoracje dopasowuje się do ogólnej koncepcji plastycznej filmu, w przypadku kina głównego nurtu są więc one z reguły realistyczne – wiarygodnie oddają daną przestrzeń. Dekoracje tworzone są ekonomicznie, tak by kosztowały jak najmniej. Dlatego często wykorzystuje się zastawki, czyli płaskie, malowane albo fotograficzne tła, które udają trójwymiarowe obiekty. Dekoracje muszą też umożliwiać łatwą realizację zdjęć, a w szczególności oświetlenie planu. Z tego powodu najczęściej buduje się je w atelier, czyli tej części wytwórni filmowej, gdzie mieszczą się hale zdjęciowe, przystosowane do kręcenia filmu.
Bardzo ważnym elementem mise-en-scéne są aktorzy, gdyż to na nich skupiają się emocje widzów. Gra aktorska obejmuje stronę wizualną (wygląd, gesty, mimika) oraz dźwiękową. Z reguły występują one łącznie, choć zdarza się, że aktora tylko słychać (na przykład w formie komentarza ponadkadrowego) lub tylko widać (w przypadku kina niemego oraz ról pozbawionych kwestii mówionych). Aktor tworzy postać wyłącznie głosem także w przypadku podkładania dźwięku do filmu animowanego.
Widzowie z reguły oczekują od aktorów realistycznego przedstawienia postaci, choć kryteria, według których ten realizm jest oceniany, są historycznie bardzo zmienne. Kreacje aktorskie nie zawsze muszą dążyć do realizmu. Przykładowo, wielu aktorów, zwłaszcza komediowych, świadomie posługuje się przesadzoną ekspresją; inni z kolei mogą ograniczać ekspresję do minimum.
Gwiazdy filmowe to najsłynniejsi aktorzy, odtwarzający główne role w filmach. Ich popularność sprawia, że są jednym z głównych czynników przyciągających widzów do kin. Wynika z tego ich ogromne znaczenie dla finansowej strony przemysłu filmowego. W większości filmów głównego nurtu, zwłaszcza tych o wysokim budżecie, zobaczymy zatem jedną lub dwie gwiazdy (choć rzadko więcej).
Kadrowanie
Kamera rejestruje rzeczywistość z pewnego punktu widzenia, kadrowanie zależy zatem od wyboru tego punktu. Kąt ustawienia kamery (nie mylić z kątem widzenia obiektywu) oznacza odchylenie od osi optycznej obiektywu. Kamera może być ustawiona frontalnie (oś optyczna obiektywu jest wówczas równoległa do ziemi). Rzadziej stosuje się perspektywę ptasią (gdy kamera pochylona jest w dół) lub żabią (gdy patrzy w górę). Z kątem filmowania powiązana jest wysokość ustawienia kamery. Na ogół kamera ustawiona jest na wysokości ludzkiego wzroku (i z reguły patrzy wtedy na wprost), ale może też znajdować się nisko, przy samej ziemi, lub wyżej, aż do ujęcia „z lotu ptaka” (przyjmuje wówczas perspektywę ptasią).
Punkt widzenia kamery sugeruje także odległość widza od filmowanego obiektu: to, co na ekranie jest duże, wydaje się być blisko, zaś to, co jest małe – daleko. Ta wyobrażona odległość widza od obiektu nazywana jest planem filmowym. Zależy ona nie tylko od rzeczywistej odległości kamery od tego obiektu, lecz głównie od kąta widzenia obiektywu. Plan filmowy określa, jaka część przestrzeni znajdzie się w ramach kadru, decyduje też o emocjonalnym nastawieniu widza do prezentowanych na ekranie obiektów. Miarą planów jest wielkość sylwetki ludzkiej w stosunku do powierzchni kadru. W planie totalnym sylwetka ludzka jest niezauważalna, ponieważ plan ten prezentuje przestrzeń, krajobraz. Plan ogólny i pełny dostarczają informacji o przestrzennej aranżacji sceny i zachowaniu oraz kostiumie postaci, dlatego najczęściej za ich pomocą realizuje się ujęcia ustanawiające. W planie ogólnym sylwetka ludzka zajmuję mniej więcej jedną trzecią wysokości kadru, plan pełny prezentuje postać nieco niższą od wysokości kadru. Plan amerykański równoważy informacje dotyczące tła i postaci. Sylwetka ludzka przedstawiona jest w nim od kolan w górę; dzięki temu zaczynają być widoczne niuanse mimiki aktora, a więc i emocje, które wyraża, ale widać też ruch sylwetki w przestrzeni. Plan średni prezentuje postać od pasa w górę, półzbliżenie – od linii nieco poniżej ramion w górę. Zbliżenie przedstawia twarz aktora, zaś duże zbliżenie ucina czubek głowy i podbródek postaci koncentrując się na oczach i ustach. Plany te kolejno akcentują coraz bardziej grę aktorską, tło zaś jest w nich coraz mniej widoczne. Dzięki temu ładunek emocjonalny tych planów jest ogromy, naśladują one bowiem intymną bliskość z postacią. Najbliższe plany to detal, przedstawiający rekwizyt albo fragment ciała aktora (na przykład oko), oraz makrodetal, ukazujący obiekty w zbliżeniu przekraczającym możliwości percepcyjne ludzkiego oka.
Ruchy kamery
Siedzący w kinie lub przed ekranem telewizora widz jest nieruchomy. Kino naśladuje jednak ruch obserwatora, wprawiając w ruch kamerę. Biorąc pod uwagę funkcję w filmie, możemy wyróżnić dwa typy ruchów kamery. W ruchach akcyjnych kamera, a za nią rama kadru, podąża za dziejącą się akcją, na przykład za poruszającym się bohaterem. Z kolei ruchy narracyjne to takie, w których kamera porusza się niezależnie od akcji, prezentując przestrzeń, wskazując widzowi jej fragmenty w określonym przez realizatorów porządku i celu.
Oba te typy ruchów mogą być realizowane technicznie na kilka sposobów. Panorama to obrót kamery wokół własnej osi – pionowej lub poziomej. Szybka panorama, w której obraz zostaje rozmazany, określana jest jako szwenk. W przypadku jazd kamera zmienia swoje położenie: porusza się równolegle do dziejącej się akcji (jazda równoległa), zbliża się do postaci albo obiektów (najazd) lub od nich oddala (odjazd). Nieco podobny efekt ruchu ramy kadru dają płynne zmiany ogniskowej obiektywu (transfokacje).
Kamera do zdjęć zamocowana jest na ogół na statywie albo w inny sposób stabilizowana, żeby uniknąć drgań obrazu. Czasem jednak celowo filmuje się, trzymając kamerę w ręku. Takie zdjęcia z ręki mogą na przykład nawiązywać do stylu dokumentalnego albo sugerować zagubienie i nerwowe spojrzenia postaci.
Dźwięk w filmie
Kino wykorzystywało dźwięk od swoich narodzin. W okresie kina niemego (do roku 1930) dźwięk dodawano do obrazu podczas projekcji. Zawsze była to muzyka (w zależności od okresu i możliwości kina: od pojedynczego pianisty – tapera – do pełnego składu orkiestrowego), czasem także efekty akustyczne bądź komentarz wygłaszany przez obecnego na sali komentatora.
Pod koniec lat dwudziestych XX wieku dokonał się przełom dźwiękowy, w wyniku którego zaczęto powszechnie posługiwać się dźwiękiem zsynchronizowanym z obrazem. Wkrótce ustalił się obowiązujący do dziś standard techniczny, według którego dźwięk zapisuje się na taśmie filmowej w postaci tak zwanej ścieżki dźwiękowej: paska między klatkami a perforacją, na którym dźwięk rejestruje się magnetycznie (obecnie już bardzo rzadko) lub optycznie. W przypadku zerwania taśmy dźwięk pozostaje nadal zsynchronizowany z obrazem. Termin „ścieżka dźwiękowa” używany jest także metaforycznie na określenie całej warstwy akustycznej filmu.
Początkowo dźwięk w kinie nie miał cech przestrzennych. Co interesujące, o ile nawet drobny brak synchronizacji dźwięku i obrazu jest łatwo odczuwalny i irytujący (na przykład w przypadku dialogów), to umiejscowienie źródła dźwięku nie jest dla widzów aż tak istotne, dlatego nie razi dźwięk emitowany przez głośnik umieszczony obok ekranu filmowego czy telewizyjnego. Kiedy jednak technika rejestracji i reprodukcji dźwięku została udoskonalona i pojawiła się możliwość wykorzystania dźwięku dwuwymiarowego (stereofonicznego) i przestrzennego (surround), twórcy zaczęli wzbogacać za jego pomocą przestrzeń filmową. Dzięki tej metodzie widz może ustalić umiejscowienie źródła dźwięku, nawet jeśli jest ono niewidoczne w kadrze. Słyszy więc, co i gdzie dzieje się w świecie przedstawionym filmu, choć nie widzi tego na ekranie. Przykładowo, słyszy nadjeżdżający samochód i może śledzić jego ruch jeszcze zanim go zobaczy.
Dźwięk, podobnie jak ruch na ekranie, podkreśla upływ czasu. Ma także walor rytmiczny, który może być wykorzystany w połączeniu z rytmem ruchu ekranowego bądź montażu (na przykład w wideoklipach muzycznych).
Na warstwę dźwiękową filmu składają się słowo mówione, efekty akustyczne i muzyka. W zależności od relacji do świata filmu, dźwięk może mieć charakter niediegetyczny bądź diegetyczny. W pierwszym przypadku pochodzi on spoza świata przedstawionego filmu i nie jest słyszalny dla postaci występujących w filmie. W drugim – jest po prostu częścią świata filmowego.
Podział ten nie odnosi się oczywiście do rzeczywistego procesu realizacji filmu. W praktyce filmowej można nagrywać dźwięk podczas zdjęć, na planie. Jest to tak zwany dźwięk stuprocentowy („setka”). W ten sposób rejestruje się dźwięk na przykład w filmach dokumentalnych albo w serialach telewizyjnych. Czasem jednak jakość takiego dźwięku – zwłaszcza dialogów – jest wówczas zbyt niska. W dodatku bardzo często film wymaga efektów akustycznych czy muzyki, których nie słychać na planie. Tego rodzaju dźwięk można dodać już po nakręceniu zdjęć, w studiu. Podobnie można ponownie nagrać dialogi i połączyć je z zarejestrowanym obrazem. Taki tworzony lub rejestrowany w studiu dźwięk to dźwięk postsynchroniczny.
Dźwięk diegetyczny, którego źródła nie widać w kadrze, określany jest jako pozakadrowy (dźwięk z offu). Buduje on przestrzeń filmową, kierując uwagę widza poza kadr. Może także stanowić zabieg narracyjny, dostarczając niepełnych informacji o wydarzeniach, które dzieją się w przestrzeni pozakadrowej.
W kinie fabularnym najważniejsze jest słowo mówione, przeważnie w formie dialogów, które informują widzów o toczącej się akcji, o motywacjach i celach postaci. Z tego powodu dialogi są na ogół najlepiej słyszalne, choćby przeczyło to organizacji danego ujęcia czy sceny: na przykład gdy bohaterowie zaczynają rozmawiać w gwarnej kawiarni, hałas wokół nich cichnie, tak by widzowie słyszeli ich słowa. Podobnie gdy rozmawiające postacie filmowane są w planie ogólnym, ich słowa słychać tak, jak gdyby znajdowali się bardzo blisko widzów.
Szczególnym przypadkiem wykorzystania słowa w filmie jest komentarz ponadkadrowy (po angielsku: voice-over), czyli monolog prezentujący wydarzenia, wypowiadany przez zewnętrznego wobec świata przedstawionego filmu narratora (którym może być także postać występująca w filmie, gdy na przykład wspomina jakieś wydarzenia). Komentarz taki ma charakter niediegetyczny.
Także muzyka filmowa jest najczęściej niediegetyczna, to znaczy pochodzi spoza świata przedstawionego filmu. Jej główna funkcja polega na budowaniu nastroju, współtworzy zatem dramaturgię i sugeruje emocje. Czasem pomaga też widzowi zrozumieć fabułę filmu, na przykład poprzez przypisanie pewnym postaciom albo wydarzeniom konkretnych motywów muzycznych, które widz rozpoznaje. Choć muzyka niediegetyczna jest chwytem nierealistycznym, jest ona niezmiernie rozpowszechniona, tak że trudno znaleźć film, w którym by się nie pojawiała.
Muzyka diegetyczna, czyli mająca swe źródło w świecie filmu (na przykład pochodząca z istniejącego w świecie przedstawionym filmu radia), informuje o miejscu albo czasie akcji, może też charakteryzować postacie. Muzyka diegetyczna może odgrywać także rolę podobną do niediegetycznej, a więc budować nastrój filmu.
Efekty akustyczne są najmniej docenianą warstwą dźwięku, ale mimo to niezwykle ważną. Efekty takie jak gwar ulicy, warkot samochodów, świst wiatru czy szum drzew tworzą tło dźwiękowe, które dodaje realizmu prezentowanym scenom. Odpowiednie skomponowanie efektów dźwiękowych buduje także dramaturgię sceny, kierując uwagę widza na istotne elementy kadru. Efekty akustyczne nie zawsze muszą być realistyczne. Kino posługuje się czasem przesadą, jak na przykład w przypadku wyolbrzymionego odgłosu uderzeń w filmach wschodnich sztuk walki. Rzadziej zdarza się zastąpienie spodziewanego dźwięku przez inny, co może skutkować na przykład efektem komicznym albo budować dyskurs ideologiczny.
Specyficznym efektem akustycznym jest cisza. Także ona może budować napięcie dramaturgiczne, dlatego szczególnie często wykorzystywana jest w filmach odwołujących się do intensywnych emocji, na przykład w horrorach.
Warstwa dźwięku jest montowana w filmie podobnie jak warstwa obrazowa i najczęściej równolegle do niej, a więc w ramach sceny dźwięk ma charakter ciągły. Dość często stosuje się natomiast nakładanie dialogów, czyli takie rozwiązanie, w którym cięcia montażowe w dialogu nie pokrywają się z końcem kwestii rozmówców. Kamera pokazuje więc nie osobę, która mówi, ale tę, które słucha, tak by widz widział reakcję słuchacza, a montaż nabrał płynności.
Z kolei koniec sceny, a więc zmiana miejsca lub czasu akcji oznacza także zerwanie ciągłości ścieżki dźwiękowej. Czasem jednak sceny łączy mostek dźwiękowy (zakładka dźwiękowa), czyli krótka, kilkusekundowa zakładka, w której dźwięk (na przykład muzyka) z ujęcia poprzedniego jest słyszalny jeszcze w ujęciu następnym lub odwrotnie. Mostek dźwiękowy zapewnia większą płynność przejścia montażowego, jakim jest cięcie pomiędzy scenami.
Montaż i narracja filmowa
Część materiału zarejestrowanego na planie nie zostaje włączona do gotowego filmu. Proces selekcji i kombinacji elementów wizualnych i dźwiękowych nazywamy montażem. Dziś montaż odbywa się niemal wyłącznie na monitorze komputera (nawet wówczas, gdy materiał jest zrealizowany tradycyjną techniką; wówczas poszczególne klatki filmu są skanowane i przesyłane do pamięci komputera, na którym – za pomocą specjalnego programu – przebiega proces montażu).
Ujęciem nazywamy fragment filmu umieszczony pomiędzy dwoma przejściami montażowymi. Wśród nich najważniejszym i najczęściej spotykanym jest cięcie. Choć komenda taka może się pojawić i pojawia się na planie podczas kręcenia zdjęć, w znaczeniu estetycznym cięcie oznacza nie tyle koniec rejestracji, co łącznik pomiędzy ujęciami. Montażysta odrzuca niepotrzebny materiał (na przykład w przypadku dysponowania dublami, pozostawiając tylko najlepsze ujęcie); zazwyczaj usuwa także niepotrzebne fragmenty „techniczne” (z początku – tzw. rozbiegówki, i z końca – tam, gdzie pojawia się klaps).
Można wskazać wiele istotnych funkcji montażu. Odpowiada on za relacje graficzne (ujęcia są traktowane jako konfiguracje linii, brył, światła i cienia, kolorów, spoczynku i ruchu i łączone tak, by podkreślić podobieństwa między ujęciami – na przykład podobnego elementu w ostatnich kadrach pierwszego i pierwszych kadrach następnego ujęcia – lub uwypuklić różnice między nimi) i rytm narracji (zależny między innymi od długości ujęć: inny efekt daje scena złożona z serii krótkich ujęć, inne – taka, która zbudowana jest z ujęć długich; rzecz jasna, rytm nie wynika wyłącznie z montażu – ale zależy także od ruchów kamery, ruchu filmowanych obiektów oraz od dźwięku). Montaż pomaga widzowi orientować się w czasie i przestrzeni świata przedstawionego, a także pozwala budować znaczenia metaforyczne.
Oprócz cięcia wskazać można wiele innych przejść montażowych, określanych niekiedy jako montaż miękki lub chwyty interpunkcji filmowej. Bardzo rzadko występują one w obrębie scen (o czym mowa będzie dalej), częściej je rozdzielają. Są to przede wszystkim: zaciemnienie (sugeruje zazwyczaj upływ czasu), rozjaśnienie (wykorzystywane chętnie w charakterze zapowiedzi scen onirycznych lub halucynacji albo dla wprowadzenia retrospekcji) oraz przenikania (w obu wskazanych funkcjach). Rzadziej stosowana jest dziś roletka (uzyskiwana przez wrażenie linii „zmazującej” stopniowo obraz z końca ujęcia, na miejsce którego pojawia się początek kolejnego).
Scena obejmuje ten fragment filmu, w którym bezpośrednio następujące po sobie wydarzenia rozgrywają się w tej samej przestrzeni; sekwencja natomiast byłaby zbiorem logicznie i dramaturgicznie połączonych scen. Można to wyjaśnić inaczej, odwołując się do pojęć znanych z refleksji nad teatrem – w obrębie sceny obowiązuje zasada „trzech jedności”: czasu, miejsca i akcji. Sekwencje natomiast są zbiorami scen, które odznaczają się wspólną akcją (na przykład: sceny napadu na bank i ucieczki gangsterów tworzyłyby jedną sekwencję). Sceny i sekwencje rzadko kiedy bywają wyodrębniane w widoczny sposób (na przykład poprzez zaciemnienia czy przenikania). Zarówno scena, jak i sekwencja składają się z ujęć (nie odwrotnie!) – choć możliwe są także sceny, sekwencje, a nawet pełnometrażowe filmy jednoujęciowe.
Czas trwania ujęć w dawniejszym kinie był statystycznie dłuższy niż we współczesnej kulturze audiowizualnej (oczywiście, można wskazać liczne przykłady zaprzeczające tej regule). Długie ujęcia są realizowane na zasadach montażu wewnątrzujęciowego (niekiedy nazywanego wewnątrzkadrowym). Określenie to może wydawać się nieco mylące – nie chodzi tu bowiem o łączenie ujęć, lecz planów: zmiany punktu widzenia kamery dokonywane są jedynie poprzez ruch kamery, nie zaś przez przejścia montażowe. Montaż wewnątrzujęciowy jest więc bliski formule jedności czasu i przestrzeni, które nie są „kawałkowane” jak dzieje się w montażu ciętym. Montaż wewnątrzujęciowy jest przedsięwzięciem trudnym dla realizatorów (z uwagi na konieczność niezwykle precyzyjnego skorelowania działań aktorów i pracy kamery) oraz wymagającym dla odbiorcy, który musi uważnie śledzić wieloplanową inscenizację, by wychwycić istotne zależności między jej elementami.
W klasycznej narracji filmowej istnieją skodyfikowane wzory montażowe, dzięki którym przestrzenne i czasowe relacje pomiędzy poszczególnymi ujęciami wydają się widzom logiczne. System konwencji montażowych stosowanych po to, by opowiedzieć zrozumiałą dla widza historię, spójną pod względem przestrzeni i czasu akcji w taki sposób, iż działania montażowe zostaną „ukryte” (poprzez rozwiązania, o których mowa poniżej) określa się jako montaż ciągły. System montażu ciągłego jest najbardziej rozpowszechnionym sposobem opowiadania historii – ale nie jedynym. Istnieją inne style filmowe, w których przestrzeń, czas i akcja wiązane są za pomocą zabiegów, które można uznać za odstępstwa od zasad dominujących w kinie stylu zerowego.
Jedną z zasad montażu ciągłego jest takie projektowanie ujęć danej sceny, by zachodziła pomiędzy nimi zgodność położenia obiektów. Jeśli dana scena pokazuje rozmowę między małżonkami, we wszystkich kolejnych ujęciach kobieta będzie po lewej, a mężczyzna po prawej stronie kadru (lub odwrotnie). Ważną funkcję pełni także reguła zgodności kierunków – spojrzeń bohaterów i ruchów obiektów. Jeśli na przykład w danej scenie aktor opuszcza ujecie pierwsze w prawą stronę obrazu, na ujęciu drugim (pokazującym inny fragment tej samej przestrzeni) powinien wchodzić z lewej strony (w przeciwnym razie widz straci „orientację w terenie”).
Typ montażu, którego podstawowym celem jest prezentacja sceny w szeregu planów bliższych lub dalszych określa się jako analityczny. Dla zachowania ciągłości wizualnej, zazwyczaj unika się zestawiania ujęć w planach skrajnych (np. plan daleki – zbliżenie) – takie właśnie połączenia mogą wywoływać szok percepcyjny, co niekiedy jest zamiarem twórców.
Ważnym elementem budowy konwencjonalnej sceny filmowej jest ujęcie ustanawiające– zazwyczaj w planie ogólnym, pomagające ustalić relacje przestrzenne pomiędzy tymi elementami, które w dalszej części sceny pojawią się w planach bliższych. W strukturze sceny ujęcie ustanawiające zajmuje miejsce zazwyczaj na jej początku (choć, jeśli scena rozpoczyna się od zbliżenia, może zostać wprowadzone później). Zdarza się także często, że ujęcie pokazujące wydarzenia w planie dalszym, pojawia się raz jeszcze (na przykład w zakończeniu sceny) – mówimy wtedy o ujęciu powtórnie lokalizującym. Wówczas, gdy na podstawie serii ujęć, lecz pod nieobecność ujęcia ustanawiającego widz skłonny jest wytworzyć hipotezę ciągłości przestrzennej, mówimy o efekcie Kuleszowa (od nazwiska sowieckiego reżysera z lat 1920).
Dla „mowy potocznej” filmu podstawowe wręcz znaczenie ma fraza ujęcie – przeciwujęcie(niekiedy określana jako plan – kontrplan). Jej działanie wyjaśnić można najlepiej, odnosząc się do przykładu rozmowy pomiędzy parą bohaterów zwróconych do siebie twarzami – bohaterowie prezentowani są naprzemiennie – z pozycji kamery ujmującej każdą postać nieco z profilu, zazwyczaj z uwzględnieniem fragmentu ciała (na przykład ramienia) odwróconego tyłem rozmówcy.
Fundamentalną zasadą budowy sceny filmowej jest reguła 180 stopni. Głosi ona, że kamera powinna pozostawać po tej samej stronie wyobrażonej osi akcji, wyznaczanej przez umownie określoną linię łączącą filmowane obiekty (zazwyczaj postaci); wyznacza ona półokrąg, w którym powinna zostać ustawiona kamera. Przestrzeganie tej zasady jest bardzo ważne – na przykład, jeśli scena pokazująca dwóch idących naprzeciw siebie mężczyzn zostałaby zrealizowana tak, iż ujęcie jednego z nich zostałoby sfilmowane z pozycji kamery spoza owego umownego obszaru (mówimy wtedy o przekroczeniu osi), wówczas widz miałby wrażenie, że jeden z bohaterów zmienił kierunek ruchu i nie idzie już ku partnerowi, ale w tym samym co on kierunku. Taka dezorientacja byłaby niepożądana w kinie stylu zerowego, posługującego się montażem ciągłym – ale bywa wykorzystywana w alternatywnych stylach filmowych.
Fraza ujęcie – przeciwujęcie uzyskiwana jest także poprzez tzw. montaż „po spojrzeniu” (a precyzyjniej rzecz ujmując: „na linii spojrzenia”). Kiedy bohater spogląda w jakimś kierunku, widzowie oczekują, że za chwilę zobaczą to, na co owa postać patrzy. Przykładowo: scena rozpoczyna się od ujęcia pokazującego bohatera patrzącego w lewo, a kolejne przedstawia inną postać patrzącą w prawo – w ten sposób widz odnosi wrażenie związku między protagonistami.
Dla uzyskania efektu ciągłości wizualnej stosowany jest także montaż na ruchu – termin ten oznacza, ze ruch niedokończony w jednym ujęciu jest kontynuowany w ujęciu następnym, filmowanym zazwyczaj z innej pozycji kamery. Niekiedy jednak mamy do czynienia z montażem „na zakładkę”, który nieznacznie wydłuża czas fabularny wówczas, gdy akcja z zakończenia jednego ujęcia jest częściowo powtórzona na początku następnego (na przykład w scenach pościgów samochodowych).
Twierdzi się także, że w obrębie danej sceny kolejne ujęcia przedstawiające te same przedmioty lub tych samych bohaterów powinny różnić się od siebie (na przykład poprzez kąt ustawienia kamery lub jej odległość od filmowanych obiektów). Reguła 30 stopni głosi, że o taki właśnie kąt powinno zmienić się ustawienie kamery, jeśli dany obiekt ma być sfilmowany w osobnych ujęciach w tym samym planie. Niekiedy bywa jednak stosowany doskok po osi(tym razem chodzi jednak o oś optyczną kamery), dzięki któremu obiekt pokazywany jest w różnych planach zdjętych na tej samej osi kamery.
Pod pojęciem ciągłości rozumie się oczywiście także przestrzeganie zgodności elementów inscenizacyjnych w kolejnych ujęciach; określa się to mianem continuity. Przestrzeganie jej jest szczególnie ważne w filmie realizowanym niechronologicznie (a zatem niemal zawsze w produkcji profesjonalnej; nie jest bowiem tak, że pierwszego dnia zdjęciowego realizuje się pierwszą scenę filmu, a ostatniego – ostatnią). Chodzi na przykład o to, by aktor, który w jednym ujęciu ma zawiązany krawat i zapiętą koszulę, w następnym ujęciu wyglądał podobnie (bez względu na to, czy podczas przerwy w kręceniu zdjęć postanowi pozbyć się krępujących elementów odzieży).
W montażowej konstrukcji poszczególnych scen szczególnie przydatne są przebitki – krótkie ujęcia, zazwyczaj zbliżenia, które wklejane są pomiędzy dłuższe ujęcia pokazujące scenę w planie dalszym. Na przykład, pokazując wyścig samochodowy, można w montażu zrobić przebitkę na widzów. Przebitki mogą oczywiście pełnić wiele innych funkcji – pomagają także ukryć mankamenty gry aktorskiej i zatrzeć wrażenie „brzydkiej sklejki”.
Takie połączenie ujęć, które nie przestrzega zasad montażu ciągłego (na przykład, łącząc w sposób nagły ujęcia rozgrywające się w różnych miejscach) określa się jako przeskoki montażowe. Ich ciekawym wariantem jest tzw. match-cut – cięcie łączące sceny (a zatem: sytuacje rozgrywające się w różnych miejscach) w ten sposób, że ostatni kadr pierwszej z nich jest podobnie skomponowany (na przykład z uwagi na graficzne podobieństwo zawartych w nim obiektów), jak kadr otwierający scenę następną. W ten kunsztowny sposób uzyskane zostaje wrażenie ciągłości wizualnej, która maskuje zmianę przestrzeni lub/i upływ czasu (na przykład w filmie Absolwent Mike’a Nicholsa bohater wyskakuje z basenu i „ląduje” w łóżku).
Montaż umożliwia także budowanie znaczeń abstrakcyjnych – na przykład poprzez łączenie ujęć o charakterze analogicznym, dążące do uwypuklenia cechy łączącej przedstawiane rzeczy (lub o charakterze kontrastowym – by podkreślić przeciwieństwo). Dramaturgiczne ukierunkowanie narracji zostaje tu porzucone na rzecz pojęć uzyskiwanych poprzez zestawianie obrazów. Przykładowo, gdy w pierwszym ujęciu pokazani są kłócący się ze sobą politycy, a w kolejnym ujadające na siebie psy, wytwarzany jest związek pojęciowy: „ujadają jak zwierzęta”. Tego rodzaju montaż nazywany jest skojarzeniowym.
Montaż manipuluje poczuciem czasu. W przypadku krótkiej, niezbyt istotnej dla dramaturgii czynności podejmowanej przez bohatera, często widzimy jedynie jej początek i zakończenie (na przykład: gdy bohater odjeżdża samochodem, nie są pokazane wszystkie czynności, które sam odjazd poprzedzają – otwarcie drzwi, ustawienie lusterek, zapięcie pasów… Najczęściej w jednym ujęciu widzimy bohatera podchodzącego do samochodu, a w następnym – uruchamiającego stacyjkę). Zabieg taki, nazywany elipsą, stosuje się powszechnie w zdecydowanej większości filmów i dotyczy nie tylko pojedynczych scen. Czas fabuły jest zazwyczaj dłuższy od czasu ekranowego (w trakcie którego oglądamy film); przypadki odmienne tyczą raczej poszczególnych fragmentów filmu niż jego całości (na przykład w ruchu zwolnionym) i występują rzadko.
Chronologię może zaburzyć często wykorzystywany montaż równoległy. Polega on na przeplataniu scen (lub pojedynczych ujęć) należących do (przynajmniej) dwóch linii narracyjnych; w ten sposób widz przemieszcza się jak gdyby „tam i z powrotem” pomiędzy wydarzeniami rozgrywającymi się w różnych miejscach. Montaż równoległy jest zabiegiem chętnie wykorzystywanym na przykład wówczas, gdy twórcy filmowi chcą podkreślić podobieństwa lub różnice pomiędzy zjawiskami, o jakich opowiadają przeplatane linie narracyjne.
Szczególnym przypadkiem montażu równoległego jest montaż symultaniczny – taki, w którym obie linie narracyjne rozgrywają się w tym samym czasie (1A – 2A – 1B – 2B itd.). Zwieńczeniem takiej frazy jest zazwyczaj scena łącząca obie linie narracyjne (na przykład gdy w naprzemiennie zmontowanych ujęciach pokażemy dwa pojazdy, które jadą z różnych miejsc, a następnie zderzą się na skrzyżowaniu).
Interesującą frazą narracyjną jest także sekwencja montażowa. Typowym przykładem jest sekwencja miesiąca miodowego – nie chodzi w niej o to, by pokazać, co dokładnie działo się w życiu małżonków, lecz oddać jedynie nastrój; taka sekwencja montażowa składa się zazwyczaj z kilku scenek pokazujących romantyczny spacer na plaży, kolacje przy świecach itp. Jej zasadniczą funkcją jest kondensacja czasu fabularnego – poszczególne sceny wchodzące w skład sekwencji montażowej są raczej ilustracjami sytuacji typowych lub powtarzalnych dla danej akcji. W sekwencji montażowej chętnie wykorzystywane są zdjęcia nakładane (na przykład spadające kartki z kalendarza); ponadto sekwencji montażowej towarzyszy najczęściej muzyka ilustracyjna, która zazwyczaj całkowicie zastępuje dialog.
Suspens to efekt wynikający z chwilowego zawieszenia biegu akcji w szczególnie istotnym dla niej momencie: wówczas, gdy widz dysponuje większą wiedzą niż bohater, któremu (przykładowo) coś zagraża. Suspens wiąże się z innym zabiegiem, nazywanym retardacją, która polega na opóźnianiu rozwoju akcji – poprzez chwyty czysto wizualne (wydłużenie ujęcia wobec umownej normy) lub zabiegi dramaturgiczne (choćby wprowadzenie dodatkowego wątku lub motywu drugoplanowego).
Klasyczna narracja filmowa – tzw. styl zerowy – posługuje się specyficznym rodzajem narracji. Można określić ją mianem „bezosobowa” – jest bowiem najczęściej pozbawiona narratora. Takie rodzaje ujęć, w których widz nie zostaje poinformowany o podmiotowym źródle obrazu określa się jako obiektywne.
Wrażenie, iż świat przedstawiony w filmie oglądany jest za pośrednictwem któregoś z bohaterów, wcale nie należy do rzadkości. Istnieją na przykład filmy, w których zostaje wprowadzona postać „opowiadacza”. Byłby nim na przykład staruszek, który wspomina swoje dzieciństwo – w kolejnych ujęciach (zazwyczaj w retrospekcji) widzimy wydarzenia, których ów „narrator” był świadkiem, bardzo często słyszymy także jego słowa, które przypominają o „właścicielu” danej historii. Ale ujęcia, w których on sam jest pokazany (jak również wydarzenia przez niego przywoływane), mogą być sfilmowane w sposób „obiektywny”. Tego rodzaju zabiegi pełnią funkcję ramy kompozycyjnej – nie różnią się jednak w istotny sposób od „bezosobowych” fragmentów filmu. Efekt subiektywizacji wywołuje także inna konstrukcja dramaturgiczna – taka, w której bohater posiada taką samą wiedzę o świecie przedstawionym jak odbiorca (w typowej narracji widz wie często więcej niż bohater – na przykład, jest świadkiem zdarzeń, których protagonista nie zna).
Spośród rozmaitych środków stylistycznych służących subiektywizacji najważniejszym jest jednak punkt widzenia (określany zazwyczaj – także w piśmiennictwie polskim – skrótem „POV”, czyli point of view). To specyficzna perspektywa obrazu, postrzeganego jak gdyby oczami bohatera (kamera umieszczona jest na wysokości twarzy aktora i skierowana tak, by imitować jego spojrzenie). Ujęcie POV występuje na ogół po zbliżeniu lub półzbliżeniu i z reguły poprzedza je ujęcie „obiektywne”, w którym bohater kieruje wzrok ku jakiemuś obiektowi w przestrzeni pozakadrowej – w ten sposób widz otrzymuje wskazówkę, kto będzie „właścicielem” kolejnych obrazów. Często mamy do czynienia z pozornym POV – gdy wydaje się, że ujęcie jest „widziane” oczami bohatera (na przykład w ujęciach-przeciwujęciach „przez ramię”), ale jednocześnie kompozycja obrazu uniemożliwia jednoznaczne jego zaklasyfikowanie jako POV. W historii kina tylko nieliczne filmy posługiwały się POV w całych sekwencjach; we współczesnej kulturze audiowizualnej POV wykorzystywane jest znacznie częściej – za sprawą popularności gier komputerowych typu FPS (first person shooter).
Innym rozwiązaniem subiektywizacyjnym są sceny jakby „przefiltrowane” przez bohatera – jego halucynacje, marzenia lub inne nietypowe stany emocjonalne. Na przykład w ujęciach pokazujących nietrzeźwego bohatera obraz jest często nieostry, rejestrowany chybotliwą kamerą z ręki i dodatkowo zdeformowany przez nietypowe oświetlenie lub użycie odpowiednich obiektywów. O takich scenach mówi się, że są „ekranem umysłu” (mindscreen) bohatera. W filmie stylu zerowego tego rodzaju sceny są zazwyczaj wyraźnie zapowiadane – poprzez informacje dramaturgiczne (gdy na przykład widzimy wcześniej postać zapadającą w sen) lub chwyty montażowe (zazwyczaj przenikanie).
Fabuła obejmuje całość zdarzeń uszeregowanych myślowo przez odbiorcę w ciąg przyczynowo-skutkowy na podstawie informacji dostarczonych przez tekst (w przypadku filmu – na podstawie wydarzeniach pokazanych w obrazie, ale też na przykład zasugerowanych przez dialogi czy napisy).
W historii kultury ukształtował się klasyczny schemat opowiadania, który po raz pierwszy opisany został w Arystotelejskiej „Poetyce”. Ogólnie rzecz ujmując, opowieść składa się z trzech zasadniczych części, najczęściej wyróżnianych umownie. Pierwszą z nich jest zawiązanie akcji, czyli ekspozycja – tu przedstawieni zostają główni bohaterowie, zaś ich świat istnieje początkowo w stanie równowagi, którą zakłóca punkt zwrotny – wydarzenie kluczowe, które prowadzi akcje na nowe tory. Inicjuje ono rozwinięcie akcji – rozmaite perypetie (konflikty, kryzysy, komplikacje), jakim poddani zostają bohaterowie. Pomiędzy aktem drugim i trzecim pojawia się najczęściej punkt kulminacyjny; po nim zazwyczaj jest jeszcze miejsce na wyciszenie akcji, pokazujące zmianę, jaka zaszła w świecie przedstawionym (lub powrót do stanu inicjalnego).
Kompozycja zdarzeń fabularnych w filmie może być chronologiczna lub niechronologiczna. W pierwszym przypadku sceny prezentowane są w układzie pokrywającym się z rozwojem fabuły (co można przedstawić numerycznym schematem: 1-2-3). W drugim przypadku, film może zawierać retrospekcje (2-1-3; zazwyczaj przybierają one postać wspomnień), lub – co zdarza się znacznie rzadziej – futurospekcje (1-3-2; na przykład wizyjne sceny zapowiadające wydarzenia, które mają się bohaterom dopiero przytrafić). W klasycznym kinie zarówno retrospekcje, jak i futurospekcje bywały najczęściej wyraźnie oznaczone (na przykład przenikaniem); dziś rozwiązania takie uznawane są za archaiczne, toteż retrospekcje wprowadza się często „znienacka”. Zdarza się też niekiedy, że przedstawione wydarzenia nie poddają się ułożeniu w logiczne zależności czasowe – dzieje się tak na przykład w filmach awangardowych.