Ekosystem dźwięku, część 2: Cyfrowe przetwarzanie sygnału

Chris Lyons | June 17, 2020 Ekosystem dźwięku, część 2: Cyfrowe przetwarzanie sygnału

Spotkanie bez obrazu będzie nadal spotkaniem, natomiast spotkanie bez dźwięku nie ma szans na powodzenie. 81% osób decyzyjnych w zakresie IT stwierdza, że dźwięk ma największy wpływ na poprawę jakości spotkań wirtualnych. Dobry dźwięk można łatwo przeoczyć, natomiast zły dźwięk nie może być pominięty. Powoduje on zmęczenie, zwiększa rozproszenie uwagi i ogranicza percepcję – a wszystko to zmniejsza efektywność i produktywność spotkania, a co za tym idzie, zmniejsza też dochody.

W tej serii postów na blogu przyjrzymy się, jak różne elementy ekosystemu audio wpływają na jakość dźwięku. Rolą systemu dźwiękowego jest przechwytywanie do dalszej transmisji głosów ludzi znajdujących się w pomieszczeniu i odtwarzanie tych głosów w innym miejscu. Aby to zrobić dobrze, dźwięk musi być zarówno dobrze zrozumiały (co oznacza, że można zrozumieć wszystko, co jest mówione), jak i naturalny (co oznacza, że tembr głosu poszczególnych osób jest taki sam, jak w trakcie rozmowy z nimi twarzą w twarz). W drugim poście bloga omówimy rolę cyfrowego przetwarzania sygnału.

W jaki sposób DSP ulepsza dźwięk

Rolą mikrofonu jest przekształcanie fal dźwiękowych przekazywanych za pośrednictwem powietrza na elektryczny sygnał audio, który może być dalej przesyłany przy użyciu przewodu w celu jego transmisji, wzmocnienia lub rejestrowania. Z wyjątkiem małych pokoi spotkań, jeden mikrofon to zazwyczaj zbyt mało. W większości sal obrad wymagane jest użycie wielu mikrofonów, których sygnał musi być zmiksowany razem. Surowe sygnały z mikrofonów są jak głosy poszczególnych wokalistów w chórze - bez względu na to, jak dobrzy są indywidualnie, liczy się to, jak współbrzmią razem w zespole.

W takich przypadkach potrzebna jest pewna forma postprodukcji, która pozwala na ulepszenie i ogólną poprawę jakości sygnału z każdego mikrofonu, a następnie łączy je wszystkie w dobrze zrównoważony, harmonijny miks. W przeszłości wymagało to użycia racka pełnego urządzeń z gałkami, światełkami i miernikami, które doświadczony inżynier dźwięku musiał precyzyjnie zestroić ze sobą, aby sygnały właściwie współbrzmiały ze sobą.

Na szczęście nie potrzeba już indoktrynacji w mrocznej sztuce inżynierii dźwięku, aby wykonać to zadanie. Obecnie wszystkie ważne procesy mogą być realizowane przez jedno urządzenie zwane cyfrowym procesorem sygnałowym (lub w skrócie „DSP”). Procesor DSP może być samodzielnym urządzeniem sprzętowym lub częścią aplikacji działającej na komputerze PC. Procesory DSP nie są takie same i nie każdy z nich nadaje się do użycia w środowisku pokoi spotkań czy sal wykładowych. DSP wbudowany w aplikację do wideokonferencji musi obsługiwać obraz, zapewniać zarządzanie połączeniami oraz pełnić szereg innych obowiązków. Dźwięk jest tylko jedną z pozycji, która znajduje się na jego liście rzeczy do zrobienia.

 

Procesory DSP nie są takie same. DSP wbudowany w aplikację do wideokonferencji musi obsługiwać obraz, zapewniać zarządzanie połączeniami oraz pełnić szereg innych obowiązków. Dźwięk jest tylko jedną z pozycji, która znajduje się na jego liście rzeczy do zrobienia.

Tym, czego potrzebujemy, jest dedykowany procesor dźwięku, który został zaprojektowany do współpracy z mikrofonami i poświęca całe swoje działanie i finezję pracy, aby dźwięk mowy był tak naturalny, jak to tylko możliwe. Podobnie jak szwajcarski scyzoryk, cyfrowy procesor dźwięku jest wyposażony w pełny zestaw narzędzi do jego przetwarzania, aby maksymalnie zoptymalizować słyszalność i zrozumiałość dźwięków.

Problemy z dźwiękiem, które może rozwiązać DSP

W niedawnych badaniach 80% profesjonalistów wymieniło problemy z dźwiękiem jako główne źródła frustracji podczas wirtualnych spotkań. Większość wideokonferencji jest dotknięta przez ten sam zestaw chronicznych problemów. Każde z narzędzi lub „bloków przetwarzania” w naszym cyfrowym procesorze dźwięku ma określony cel i rozwiązuje jeden z następujących problemów:

Problem #1: Zbyt głośno lub zbyt cicho

Jednym z najczęstszych problemów z dźwiękiem podczas wideokonferencji jest po prostu kontrolowanie jego poziomów. Czasami osoby po jednej stronie wideokonferencji są zbyt cicho, a czasami są za głośno. Rozwiązaniem jest automatyczne sterowanie wzmocnieniem (Automatic Gain Control - AGC), które dokonuje regulacji poziomu każdego kanału mikrofonowego (lub poziomu dźwięku ze zdalnej lokalizacji), aby zapewnić jednakową głośność. Podobnie jak dobry inżynier dźwięku, AGC nieco wzmacnia głos zbyt cichych rozmówców i nieco tłumi tych, którzy są zbyt głośni. Jest to idealne rozwiązanie w salach konferencyjnych, w których odległość między rozmówcą a mikrofonem zmienia się w zależności od tego, kto i z którego miejsca mówi.

Problem #2: Nasz głos jest taki, jak z beczki

Głuchy dźwięk - jak z puszki lub beczki - może wynikać z jednoczesnego działania zbyt wielu mikrofonów. Automatyczny mikser dba o to, aby natychmiast włączyć mikrofon, który jest najbliżej osoby, która zaczyna mówić i równocześnie wyłączyć mikrofony, które nie są potrzebne. W pomieszczeniu, gdzie jest osiem mikrofonów, wyłączenie siedmiu, które nie są potrzebne, pozwala uzyskać skrajną różnicę w jakości dźwięku.

Problem #3: Echo, Echo, Echo

Podczas wideokonferencji istnieje duże prawdopodobieństwo, że dźwięk wydobywający się z głośnika zostanie przechwycony przez mikrofon i przesłany z powrotem do zdalnej lokalizacji (z której pochodzi), powodując pojawienie się irytującego echa. W celu uniknięcia tego, narzędzie Acoustic Echo Canceller (AEC) pozwala cyfrowo usuwać przychodzący dźwięk ze zdalnej lokalizacji, w czasie, gdy jest do niej przesyłany dźwięk z pokoju konferencyjnego. Większość aplikacji do wideokonferencji (takich jak Microsoft Teams, Zoom lub Skype for Business) ma wbudowany jednokanałowy AEC, który najlepiej sprawdza się, gdy dołączamy do jednego z takich spotkań i korzystamy z laptopa. Jednak w przypadku większych pokoi spotkań oraz sal lekcyjnych z wieloma uczestnikami oraz mikrofonami, uzyskanie dobrej jakości dźwięku wymaga użycia procesora DSP, który zapewnia oddzielny AEC do każdego kanału mikrofonowego.

Problem #4: Szum rozpraszający uwagę

W większości sal konferencyjnych występuje szum w tle, który jest powodowany przez projektory lub komputery, systemy klimatyzacji i wentylacji, dźwięki z budynku lub hałas przedostający się z zewnątrz. Osoby znajdujące się w pokoju mogą tego nie zauważać, ale mikrofony odbierają te wszystkie dźwięki. Użycie korektora barwy może pozwolić wyeliminować większość dźwięków dudnienia i syczenia w dolnym i górnym zakresie częstotliwości. Jednakże tylko elektroniczna redukcja szumów może w sposób cyfrowy usunąć szum, który pokrywa się z częstotliwościami mowy, więc przestaje być on natrętny dla słuchaczy. Rezultat działania procesora z dobrą redukcją szumów może być zadziwiający.

Problem #5: Czy oni nas słyszą?

Im więcej szumów i pogłosu znajduje się w sygnale audio, tym trudniej kodekowi wideokonferencyjnemu (niezależnie od tego, czy jest to aplikacja na komputerze PC, czy urządzenie sprzętowe), zapewnić naturalną interaktywność między obiema stronami spotkania. Jeśli problemy z dźwiękiem nie zostaną rozwiązane zanim sygnał dotrze do kodeka, może być trudno prowadzić efektywny dialog z drugą stroną, a jej z nami. To może bardzo spowolnić komunikację i być powodem irytujących sytuacji.

Problem #6: Dźwięk nie jest zsynchronizowany z obrazem

W przypadku przesyłania obrazu za pośrednictwem typowego połączenia internetowego, przetwarzanie obrazu jest bardziej wymagające niż przetwarzanie dźwięku i zabiera trochę więcej czasu. W zależności od posiadanego sprzętu i przepustowości łącza, dźwięk do danej lokalizacji może docierać szybciej niż obraz, tak więc można słyszeć głos rozmówcy szybciej niż będą ruszać się jego usta na ekranie. Możliwość regulowania opóźnienia głosu w DSP pozwala na zsynchronizowanie przesyłanego dźwięku z obrazem.

Procesor dźwięku – sprzętowy czy programowy?

Procesor dźwięku dla konferencji powinien znajdować się w miejscu, które jest najbardziej sensowne dla naszej aplikacji. W mniejszych pomieszczeniach mikrofon z wbudowanym procesorem dźwięku (taki jak Microflex Advance MXA710 lub MXA910) eliminuje potrzebę stosowania zewnętrznego sprzętu i upraszcza konfigurację systemu. W średnich i dużych pomieszczeniach z wieloma mikrofonami oraz innymi źródłami dźwięku, procesor DSP w postaci dedykowanego urządzenia sprzętowego (jak np. IntelliMix P300) zapewnia większą wydajność, elastyczność oraz opcje łączności w celu połączenia ze sprzętowymi lub programowymi kodekami. Należy zaznaczyć, że Shure oferuje również programowy procesor dźwięku DSP – IntelliMix Room. Może on działać na komputerze w pokoju konferencyjnym lub urządzeniu dedykowanym do wideokonferencji, co pozwala na łatwiejsze wdrożenie systemu, jego scentralizowane zarządzanie i obsługę przez personel IT. Niezależnie od swojej postaci, procesor dźwięku DSP o wysokiej wydajności zapewnia naturalny dźwięk, który ułatwia komunikację i maksymalizuje wartość wynikającą z inwestycji w urządzenia i technologię.

Cyfrowe procesory sygnałowe Shure pozwalają uzyskać dźwięk o najwyższej możliwej jakości przez współpracę z mikrofonami konferencyjnymi i odpowiednie przetwarzanie ich sygnału. Są one dostępne w postaci sprzętowej lub na platformach programowych. Dowiedz się więcej tutaj.

Chris Lyons

Chris Lyons

Chris Lyons to weteran Shure z ponad 30-letnim dorobkiem, który pełnił różne role w marketingu i public relations. Jego specjalnością jest ułatwianie zrozumienia skomplikowanej technologii audio, zwykle z wykorzystaniem analogii do samochodów lub jedzenia. Nie śpiewa, ani nie gra na instrumencie, ale czasami rozśmiesza współpracowników Shure.