Projektowanie dźwięku w grach

Author Avatar
Autor
Antony Tornver
Opublikowano
June 10, 2023
Projektowanie dźwięku w grach

Aby uzyskać spójną oprawę dźwiękową w grach i pełniejsze zrozumienie sekwencji dźwięków, można je podzielić na kilka rodzajów: głosy aktorskie, atmosfery (dźwięki otoczenia), odgłosy synchroniczne (fols), efekty dźwiękowe (CFX) i muzyka.

W grach można wykorzystać głos na kilka sposobów. Dialogi głosowe są głównym źródłem informacji dla użytkowników. Frazy spikera nagradzają gracza (np. „Podwójne zabójstwo”) lub zapowiadają określone działania („Runda pierwsza – walka”). Głosowe odgrywanie działań głównego bohatera, takich jak krzyki podczas otrzymywania obrażeń lub skakania, odgłosy oddechu podczas biegania, pomaga wzmocnić więź z postacią i lepiej przekazać jej stan.

Podczas pracy z głosem ważne jest, aby wybrać aktorów o odpowiedniej barwie głosu, tak aby ich głos pasował do charakteru postaci. Głos NPC powinien wywoływać u gracza poczucie rzeczywistości. Jeśli postać jest potworem lub kosmitą, należy podkreślić specyfikę wymowy i specyfikę aparatu mowy. W tym celu projektanci dźwięku używają narzędzi do zmiany wysokości dźwięku i nakładania warstw dźwiękowych, takich jak odpowiednio Pitch i Layering. Narzędzia te pozwalają zmieniać wysokość i czas trwania dźwięku, a także tworzyć kompozycje z różnych warstw i tekstur. Ponadto należy rozważyć zastosowanie efektów.

Głos w grze jest zazwyczaj powiązany z drzewkiem dialogowym lub wyzwalaczem.

Aby stworzyć atmosferę, ważne jest użycie zapętlonych próbek audio, w których koniec pliku audio płynnie przechodzi w początek. Ważne jest, aby upewnić się, że nie ma zauważalnych skoków i używać dźwięków trwających co najmniej minutę (najlepiej co najmniej pięć minut), aby stworzyć iluzję ciągłego dźwięku w tle. Każde nagłe przejście może zakłócić immersję gracza.

Dodając dźwięki tła do wirtualnego świata, należy wziąć pod uwagę ich położenie na mapie. Na przykład, jeśli jest to lokalizacja w dżungli, zawsze powinny być obecne ogólne dźwięki, takie jak śpiew ptaków, szum wodospadu, szelest. Każdy obiekt ma swoją własną strefę dźwiękową, którą można podzielić na dwa poziomy: strefę wzrostu i strefę stałej głośności. Proces ten nazywa się tłumieniem.

Kiedy gracz wkracza do pierwszej strefy, głośność dźwięku wzrasta wraz z zbliżaniem się do źródła. Proces ten trwa do momentu, gdy użytkownik zbliży się wystarczająco blisko. Następnie gracz przechodzi do drugiej strefy, w której głośność dźwięku pozostaje niezmieniona. Jest to ważne dla pozycjonowania i łączenia stref, ponieważ dźwięki z różnych źródeł mogą się nakładać. Dźwięki tła są umieszczane bezpośrednio w lokalizacjach i ważne jest, aby nie wykraczały poza obszar swojego oddziaływania.
Podczas tworzenia atmosfery orientacji w świecie gry brane są pod uwagę następujące parametry:

  • Głośność: poziom głośności dźwięku;
  • Pozycjonowanie: określenie lokalizacji dźwięku w przestrzeni;
  • Priorytet: określenie znaczenia dźwięku w stosunku do innych dźwięków;
  • Pogłos: odbicie dźwięku w zamkniętych przestrzeniach, tworzące echo.

Podczas pracy z dźwiękiem ważne jest, aby zwracać uwagę na główne elementy gry, tzw. akcenty, które kształtują wrażenia użytkownika. Pomocne w tym są procesy miksowania dźwięku i ustalania priorytetów.

Na przykład, gdy pojawia się wróg, dźwięki, które wydaje, muszą wyraźnie odróżniać się od tła otoczenia. Istnieje wiele sposobów osiągnięcia tego celu:

  • Rozmieszczenie warstw dźwiękowych na różnych kanałach audio i ich miksowanie;
  • Priorytetyzacja dźwięków w oparciu o logikę gry.

Wykorzystanie efektu Sidechain, który pozwala zmieniać głośność dźwięków w zależności od priorytetów. Na przykład, gdy pojawia się wróg i wydaje dźwięki, inne głośne dźwięki automatycznie zanikają.

Pogłos ma również duże znaczenie podczas pozycjonowania dźwięków na mapie. Należy pamiętać, że dźwięk, taki jak pstryknięcie palcami, będzie brzmiał inaczej w pokoju i w jaskini ze względu na odbicia od ścian i powierzchni. Narzędzie Reverb może pomóc w realizacji tego zadania.

Strefy pogłosu zazwyczaj odpowiadają pomieszczeniom, w których znajduje się atmosfera, i mogą ze sobą współdziałać. Ważne jest, aby zapewnić jedność przestrzeni dla wszystkich warstw dźwiękowych w scenie, a także używać pogłosu jako głównego narzędzia do tworzenia efektu zbliżania się i oddalania dźwięku.

Synchroniczne nagrywanie dźwięków (foley) często odbywa się w studiu, aby uzyskać autentyczność i wysoką jakość dźwięku. W przeszłości korzystanie z nagrań audio na planie filmowym było trudne ze względu na hałas kamer. Jack Foley, amerykański inżynier dźwięku w branży filmowej, opracował system, w którym dźwięk był nagrywany oddzielnie od obrazu na ekranie, ale zsynchronizowany z nim.

Synchroniczne odgłosy są obecnie tworzone również w specjalistycznych studiach. Nie jest konieczne używanie naturalnych materiałów, aby uzyskać pożądany dźwięk. Na przykład papier i specjalne efekty dźwiękowe mogą być użyte do emulacji dźwięku elektryczności, a worek skrobi może posłużyć do stworzenia dźwięku śniegu.

Najskuteczniejszym sposobem połączenia synchronicznych dźwięków jest bezpośrednie przypisanie ich do animacji. Na przykład, aby odtworzyć odgłos kroków postaci, należy określić moment, w którym stopa dotyka powierzchni, i przypisać do niego odpowiedni dźwięk. Ważne jest, aby wybrać odpowiedni dźwięk, który zależy od materiału, po którym stąpa postać.

SFX to efekty dźwiękowe, które nie występują w rzeczywistości: odgłosy obcych, statków kosmicznych, a także akcenty, na które gracz powinien zwrócić uwagę – eksplozje, strzały, dźwięki interfejsu. Bardzo ważne jest, aby SFX pasowały do scenerii gry. Na przykład podczas tworzenia dźwięków interfejsu można użyć dźwięków o tej samej teksturze (szkło, kamień, drewno), aby zapewnić jednolity dźwięk.

SFX są umieszczane w lokalizacjach w taki sam sposób jak efekty dźwiękowe lub mogą być powiązane z określonymi wyzwalaczami lub animacjami.

Muzyka służy do tworzenia określonego nastroju w scenie. Doskonale oddaje stan emocjonalny i dramaturgię. Muzyka może być w kadrze (źródło dźwięku znajduje się w scenie: gramofon, fortepian) lub poza ekranem. Umieszczanie muzyki odbywa się w taki sam sposób, jak w przypadku dźwięków tła. Jest ona prawie zawsze używana w scenach przerywnikowych i stanowi prosty i skuteczny sposób na połączenie elementów audio w grach.

Muzyka w grach dzieli się zazwyczaj na dwa rodzaje:

  • Muzyka adaptacyjna;
  • Muzyka liniowa.

Muzyka adaptacyjna służy do płynnej interakcji z rozgrywką i dopasowania się do intensywności i dramaturgii wydarzeń. Aby to osiągnąć, konieczne jest jednak płynne przejście między różnymi segmentami kompozycji.

Na przykład mamy zapętlony segment muzyczny A, który jest powiązany z prostym spacerem postaci. Kiedy gracz zbliża się do lawy i aktywuje wyzwalacz, rozpoczyna się część B. Aby zapewnić płynne przejście, konieczne jest wstępne rozważenie możliwości zmiany kompozycji.

Istnieje poziomego typu przejście, które obejmuje przejście od pierwszego segmentu do drugiego, od drugiego do trzeciego i tak dalej. Każdy segment jest podzielony na części, które mają swoje własne warunki przejścia do następnego. Na przykład można nagrać specjalną część końcową, która jest dołączana podczas przechodzenia do innego segmentu.

Istnieje również metoda pionowa, w której wykorzystuje się wspólną melodię w tle, uzupełnioną innymi warstwami muzycznymi podczas przemieszczania się do różnych lokalizacji lub zmiany tempa gry. Na przykład można dołączyć zmodyfikowaną wersję głównego motywu. Ważne jest, aby wszystkie te części były zwięźle połączone ze sobą i tworzyły harmonijny dźwięk.

Aby stworzyć zrównoważoną oprawę dźwiękową w grach, należy przestrzegać pewnych zasad:

  • Stosowanie odpowiednich tekstur dźwiękowych: nie zastępuj dźwięku przedmiotu plastikowego dźwiękiem przedmiotu metalowego;
  • Zgodność z zaplanowanym dźwiękiem;
  • Stosowanie akcentów w celu zwrócenia uwagi na kluczowe elementy;
  • Uwzględnienie priorytetowości dźwięków.

Ponadto ważne jest zrozumienie charakterystyki dźwięku. Na przykład, gdy statek powietrzny znajduje się za górą i nie jest widoczny, ale słyszalny, nie ma dźwięków o wysokiej częstotliwości. Kiedy statek powietrzny pojawia się zza góry, częstotliwości są wyrównane i pojawia się pogłos, echo z wąwozu. Im bliżej znajduje się obiekt, tym mniej jest echa. Im większy obiekt, tym więcej tekstur dźwiękowych o niskiej częstotliwości mu odpowiada. Wiele takich niuansów ujawnia się wraz z doświadczeniem.

Author Avatar
Autor
Antony Tornver
Opublikowano
June 10, 2023
music business
Twórz Muzykę Teraz.
Bez Pobierania, Tylko
Twoja Przeglądarka.
Zacznij tworzyć bity i piosenki w kilka minut. Żadnego doświadczenia — to takie proste.
Zacznij