Zostałeś zalogowany. Za X sek. strona zostanie przeładowana.

Logo NInA
fot. Australian Broadcasting Corporation, Flickr, CC BY NC
Powrót

Era analogowa a era cyfrowa | Esej Jerzego Piotra Walczaka

Na wstępie zapytajmy, co robią analogowe urządzenia używane w technice audiowizualnej? Najprościej można odpowiedzieć, że dokonują one akwizycji (pomiaru) i przetworzenia informacji akustycznej.

Można przyjąć, że analogową erę techniki audiowizualnej otwiera wynalazek fotografii. Technologie nie powstają same z siebie, lecz są inspirowane poznaniem zjawisk naturalnych. W postępach techniki audiowizualnej kluczową rolę odegrał rozwój fizyki, chemii oraz nauk medycznych i fizjologii, pozwalających na bliższe poznanie działania ludzkich zmysłów. Choć wynalazek fotografii lokuje się w I połowie XIX wieku, to faktyczny burzliwy rozwój techniki A/V miał miejsce 60 lat później na przełomie wieków. Wówczas istniał już fonograf, gramofon, patefon, telegrafon (magnetofon), ale elektronika i związana z nią elektroakustyka pozostawały in statu nascendi. Niewątpliwie wynalazek „graficznego” zapisu dźwięku na cylindrach i płytach był sporym skokiem technicznym dla rozwoju systemów A/V. Analogowa technika audiowizualna stawała się coraz bardziej zaawansowana i przez następne 70 lat udoskonalana. W latach 50. XX wieku poziom techniczny urządzeń analogowych osiągnął względną doskonałość technologii lampowej. Współcześnie wielu audiofilów przedkłada zapis dźwięku na płytach winylowych nad zapis na nośnikach cyfrowych DAT/CD/DVD/BluRay i urządzenia lampowe nad półprzewodnikowe. By przekonać się, czy takie opinie są słuszne, należałoby porównać parametry obydwu systemów, analogowego i cyfrowego. Spróbuję się nad tym głębiej zastanowić i przedstawić pewne argumenty za i przeciw, najpierw jednak przytoczę jeszcze kilka istotnych faktów.

W przypadku rejestracji obrazu naturalnego wiek XIX był również przełomowy. Najpierw J. N. Niépce oraz J. L. Daguerre wynaleźli fotografię w 1839 roku, a tuż przed końcem wieku bracia Lumière opatentowali kinematograf i otworzyli epokę X muzy. Dziewiętnastowieczne odkrycia w zakresie fizyki pozwoliły zapoczątkować erę elektroniki na początku XX wieku. W pierwszej fazie rozwoju elektronika związana była głównie z zagadnieniami przesyłania głosu i informacji znakowej alfabetem Morse'a na odległość, bez użycia drutu. Telegraf i telefon należały do wynalazków XIX wieku. Zagadnienie przekazu informacji jest jednym z istotnych fragmentów technologii audiowizualnej w telekomunikacji, choć staje się to bardziej oczywiste dopiero w późniejszych latach (generalnie jest ono nadal jednym z najważniejszych kierunków rozwoju współczesnej technologii). Elektronikę XX wieku rozpoczynają lampy elektronowe i urządzenia budowane z ich użyciem. Najpierw pojawia się lampowa dioda prostownicza, wynaleziona i skonstruowana przez J. A. Fleminga w 1904 roku. Jej konstrukcja została poprzedzona badaniami J. J. Thompsona nad oddziaływaniami pól elektrycznych i magnetycznych na wiązki elektronów. Trzy lata po diodzie Fleminga, Lee De Forest buduje lampę trójelektrodową – triodę. Za jej pomocą można było konstruować pierwsze wzmacniacze, generatory i inne urządzenia umożliwiające kontrolę i sterowanie przepływu prądu.

Nagrania dźwiękowe

W roku 1925 nastąpiła zmiana technologii zapisu sygnału audio. Przy nagrywaniu płyt gramofonowych zastosowano elektromechaniczny i elektroniczny system. W studiach nagraniowych pojawiły się wzmacniacze lampowe, zaczęto eksperymentować z nagraniami stereofonicznymi. Pierwsza audycja stereofoniczna była zaprezentowana przez BBC już w 1925 roku. W zasadzie elektronika lat 30. pozwalała na precyzyjny pomiar i przetworzenie sygnału akustycznego, ale nadal problemem były materiały, z jakich wykonane były płyty. Koniecznością stała się również standaryzacja parametrów zapisu (kształtu rowka). Pierwszymi materiałami wykorzystywanymi do produkcji płyt gramofonowych były naturalne żywice: szelak, damara oraz wosk. W praktyce zastosowano szelak, pozyskiwany z owadów Lac Laccifer. Stosowane do odczytu igły stalowe pozwalały co najwyżej na kilkukrotne odtworzenie jednej strony płyty, ale zalecano zmianę igły po każdym przesłuchaniu. Stąd dziś na strychach starych domów można jeszcze znaleźć pudełka wypełnione setkami igieł gramofonowych.

Postęp w nagraniach płytowych nastąpił w latach 40. XX wieku wraz z pewnymi nowatorskimi konstrukcjami głowic nacinających (rozwiązania techniczne państwa Kappów) oraz po zastosowaniu doskonalszych materiałów syntetycznych o mniejszej ziarnistości (PCW, tzw. winyl). W końcu lat 40. XX wieku wprowadzono zapis dźwięku o zmiennym skoku zwoju rowka na płycie gramofonowej (kompresja) oraz obniżono prędkość obrotową, co pozwoliło na upakowanie do 30 minut nagrania na jednej stronie płyty. W porównaniu z czasem nagrania na płycie 78-obrotowej (do 4 minut na jedną stronę) dawało to imponujący wynik. Płyty winylowe przetrwały do dziś i wielu „złotouchych” koneserów uważa je za doskonalsze źródło dźwięku niż płyty CD. Patrząc na parametry techniczne, taki sąd wydaje się nieuzasadniony. Dynamika płyty winylowej pozwala na zapis sygnałów w zakresie do ok. 55 dB, co w porównaniu z CD (96 dB) i BD (110dB) nie jest imponującą rozdzielczością.

Jednakże jest jedna cecha płyty winylowej, której nie można uzyskać w zapisie CD. Chodzi mianowicie o parametr przenoszenia tranzjentów, czyli szybkich zmian w dynamice sygnału, który jednak zwykle nie jest prezentowany przez wytwórców sprzętu cyfrowego. Gęstość cyfrowego próbkowania w zapisie dźwięku na płycie CD nie jest w stanie przenieść tranzjentów z tak dużą precyzją, jaką można uzyskać dla analogowego zapisu na płycie winylowej. Stąd np. występujące w nagraniach zespołów jazzowych tzw. „przeszkadzajki”, czyli specyficzne instrumenty perkusyjne, znacznie lepiej wypadają, kiedy odtwarzamy nagania z analogowej płyty winylowej niż z CD. Trochę lepiej oddanie tranzjentów wygląda w przypadku płyt SACD, ale ich popularność jest bardzo niska.

Odtwarzanie obrazu

W przeciwieństwie do sprzętu audio, odtwarzanie obrazu jest zdominowane przez urządzenia cyfrowe. W praktyce część analogowa studiów telewizyjnych składa się jedynie z urządzeń do akwizycji obrazu naturalnego i monitorów. Dawne lampy obrazowe w kamerach telewizyjnych (widikony) zostały zastąpione przez matryce CCD. Konstruktorzy matrycy CCD zostali nawet uhonorowani nagrodą Nobla. W zasadzie matryca CCD jest urządzeniem w połowie „cyfrowym” i w połowie analogowym. Składa się ona z dyskretnych elementów światłoczułych, które jednak mierzą sygnały świetlne analogowo. W CCD docierające do sensora światło powoduje ładowanie kondensatorów, dołączonych do każdego elementu światłoczułego matrycy, po czym ładunek jest przenoszony do tzw. ciemnej części matrycy i dopiero tam następuje przetwarzanie ADC. Można powiedzieć, że matryca CCD próbkuje obraz, ale nie dokonuje kwantyzacji mierzonego rozkładu natężeń oświetlania. 

Matryca CCD ma wiele wad. W starszych modelach z lat 90. XX wieku, kasowanie ładunków w pamięci było wolniejsze, co powodowało występowanie efektu „włóczenia” obrazu, szczególnie jeśli obraz zawierał silne kontrasty. Efekt uwydatniał się ewidentnie np. podczas filmowania palących się świec. Obecne wytwarzane matryce CCD nie wykazują tak silnie tego efektu. Innym problemem matryc jest dość duży poziom szumu własnego, który staje się dużo bardziej widoczny wraz ze wzrostem gęstości elementów światłoczułych. Z tego powodu odwzorowanie dużych zmian kontrastu w matrycach zastosowanych w takich urządzeniach jak telekino staje się mocno ograniczone. Dla telekin pracujących jedynie na potrzeby telewizji SDTV, w której amplituda sygnału wizyjnego jest kwantowana w procesie ADC w rozdzielczości 8 lub 10 bitowej, matryce CCD dają wystarczające odwzorowanie kontrastów obrazu.

Jednakże kiedy zachodzi potrzeba skanowania (robią to skanery obrazu, a nie typowe telekina) filmu kinowego na potrzeby np. kina cyfrowego czy telewizji HD, wówczas wymagane jest odwzorowanie większej dynamiki kontrastu (12-16 bitów/komponent). Według mnie, w skanerach filmowych lepszym rozwiązaniem jest zastosowanie lampy obrazowej CRT (oscyloskopowej) do skanowania i użycie chłodzonych fotopowielaczy do pomiaru światła przechodzącego przez ramki filmu. Tego typu konstrukcja może konwertować obraz z gęstością optyczną powyżej 4 i uzyskiwać rozdzielczość próbek o rozdzielczości 16 bitów/komponent. Więcej informacji o tych zagadnieniach Czytelnik znajdzie w dalszej części niniejszego eseju.

Podobne problemy występują w aparatach cyfrowych, w których stosowane są matryce światłoczułe CCD. Obok dużej dynamiki kontrastu, w wysokim jakościowo przetworzeniu obrazu wymagana jest duża rozdzielczość geometryczna obrazu, zapewniająca odwzorowanie szczegółów. Obiektywy kamer telewizyjnych czy filmowych mają konstrukcję nastawioną na zmianę, możliwie szeroko, zakresu kąta widzenia (zoom). Natomiast w przypadku obiektywu nie jest wymagana zbyt wysoka rozdzielczość. Ponadto w obrazie ruchomym występuje zjawisko rozmazania obrazu w ruchu, tzw. blur. W konstrukcji obiektywów aparatów fotograficznych staramy się zachować możliwie ostry obraz nawet dla szerokiego zakresu transfokacji. Parametrem, który charakteryzuje rozdzielczość obiektywu, jest liczba linii obrazowych. Linii obrazowych układu optycznego nie należy mylić z liniami wybierania w telewizji. Liczbę linii obrazowych, jaką przenosi układ optyczny (np. obiektyw), bada się poprzez odwzorowanie obrazu kontrolnego z narysowanymi na przemian liniami białymi i czarnymi. Kolor w tym badaniu ma drugorzędne znaczenie. Ustawiając na obraz kontrolny obiektyw kamery czy układ optyczny telekina liczymy, ile linii jest odwzorowanych w obrazie rzutowanym na element fotooptyczny. Dobrej klasy obiektywy potrafią przenosić ponad 2300 linii, natomiast obiektywy z dużą transfokacją (zmiennym zoomem) mają mniejszą ostrość. Stąd jeśli chcemy robić zdjęcia o dużej rozdzielczości, powinniśmy używać w aparatach fotograficznych obiektywów bez zoomu.

W technice studyjnej: telewizyjnej i filmowej analogowe urządzenia do postprodukcji zastąpiono komputerami lub komputerami wyspecjalizowanymi (takie rozwiązania stosowała np. firma Quantel). Starsze analogowe zestawy montażu liniowego zastąpiły urządzenia wirtualne (tzw. montaż nieliniowy). W stosunku do techniki analogowej możliwości urządzeń wirtualnych (komputer i oprogramowanie) pozwalają na zastosowanie pewnych narzędzi, które były praktycznie niedostępne w technice analogowej. Chodzi na przykład o studio wirtualne, montaż kompozycyjny, cyfrową animację 3D czy 2D.

Niezastąpiona technika analogowa

Istnieją pewne obszary, gdzie technika analogowa nie może być jeszcze zastąpiona technologiami wirtualnymi. Wszędzie gdzie jest wymagana bardzo niska latencja sygnału przy przetwarzaniu, urządzenia analogowe są bezkonkurencyjne. Na przykład niedopuszczalne jest, jeśli oprogramowanie wirtualnego syntezatora instrumentu muzycznego wyprowadzi sygnał na wyjście (głośnik) z dużym, zauważalnym opóźnieniem. Latencję będziemy liczyć od uderzenia palcem w klawiaturę np. elektronicznego pianina do momentu uzyskania efektu w głośniku. Na takim instrumencie gra się fatalnie, o ile jest to w ogóle możliwe w praktyce.

Współczesna studyjna technika telewizyjna czy radiowa składa się z następujących działów: produkcja, pre-produkcja (w telewizyjnych studiach wirtualnych), post-produkcja, emisja/dystrybucja oraz archiwizacja. Większość elementów wyposażenia studiów telewizyjnych jest realizowana w technologiach cyfrowych. Najwięcej „analogu” występuje w archiwizacji (kolekcje nagrań utrwalonych na starych nośnikach). Drugim działem jest emisja/dystrybucja, która dla rozsiewu TV będzie jeszcze „analogowa” do 2013 roku, kiedy to nadajniki z modulacją FM/AM zostaną wyłączone w Polsce. Sądzę, że w przypadku radia systemy emisyjne jeszcze bardzo długo pozostaną analogowe. Dużą grupę słuchaczy radia stanowią kierowcy samochodów. Dla odbiorców poruszających się, emisja „cyfrowa” obarczona jest kłopotliwym do eliminacji wpływem efektu Dopplera, który powoduje przesunięcia tzw. podnośnych, o czym za chwilę. Trudno jest przewidywać, kiedy radiowe cyfrowe systemy emisyjne, np. DAB, pojawią się w Polsce. Techniki cyfrowe pozwalają na przekazywanie wielu formatów obrazów w różnej głębokości kompresji (stratnej). Zwiększenie przepływności sieci telekomunikacyjnych znacznie wzrosło w ostatnich kilku latach. Te dwa fakty spowodowały wzrost występowania treści audiowizualnych dostępnych w Internecie w formach przekazu „ściąganego” (z pełnym buforowaniem) oraz strumieniowego (z buforowaniem częściowym).

Jakość przekazu cyfrowego

Bardzo często można usłyszeć, że przekaz cyfrowy sygnału jest lepszy od przekazu analogowego, ponieważ jest bardziej odporny na zakłócenia. W zasadzie nigdy nie mamy do czynienia z przekazem stricte cyfrowym w systemach cyfrowej emisji radiowej i telewizyjnej. Mówiąc np. rozsiew cyfrowy sygnału telewizyjnego, używamy pewnego skrótu myślowego. Dla przykładu rozpatrzmy analogowy rozsiew telewizyjny. W systemach analogowej emisji TV sygnał wizyjny (pomińmy detale standardów: PAL, NTSC, SECAM) jest podawany do modulatora, który moduluje falę nośną sygnałem wizyjnym. W systemach telewizji analogowej (PAL, NTSC, SECAM) wykorzystuje się modulację częstotliwości (AM) dla wizji oraz modulację amplitudy (FM) dla dźwięku. Zmodulowana fala nośna obejmuje pewne pasmo częstotliwości (w Polsce jest to pasmo o szerokości 8MHz). Nie będę wyjaśniał, jak propagują się fale o różnych częstotliwościach w atmosferze. Jeśli znajdą się w zasięgu anteny odbiornika, wówczas są przekazywane z anteny do odpowiednio dostrojonych obwodów wejściowych (rezonansowych) odbiornika. W obwodach rezonansowych stopnia wejściowego odbiornika następuje separacja wybranej fali (dostrojenie). Następnie odbywa się proces demodulacji. Po demodulacji, „wyłuskany” sygnał wizyjny przesyłany jest przez tor wzmacniaczy wizyjnych i dekoderów (PAL, NTSC lub SECAM), a następnie do obwodów sterujących wyświetlaniem obrazu. Sygnał przenoszący informację dźwiękową jest wydzielany w detektorze, a następnie przesyłany do wzmacniaczy audio.

W systemach telewizji cyfrowej DVB lub ATSC modulacja jest bardziej złożonym procesem, ponieważ wizyjny sygnał dyskretny koduje informację cyfrową na wielu tzw. podnośnych (wiele fal nośnych), znajdujących się w tym samym paśmie, co zmodulowana fala nośna telewizji analogowej. Takie rozwiązanie zostało wybrane, aby nie zmieniać struktury podziału pasm, które przyznawane są nadawcom przez Urząd Komunikacji Elektronicznej (UKE). Fale podnośne zostały wybrane „sprytnie”, gdyż użyto fal tzw. ortogonalnych. Zastosowanie tego triku powoduje, że nie mogą się one zakłócać nawzajem. Mechanizm kodowo-modulacyjny, używany w telewizji cyfrowej, nazywa się COFDM. Jest on dość skomplikowany i zaprezentowanie jego detali działania wykracza poza ramy niniejszego eseju. Warto może wspomnieć, że w przypadku przesyłania sygnału cyfrowej telewizji np. DVB w środowiskach o różnym poziomie zaszumienia stosuje się odmienne metody modulacji oraz szerokości bitowej kodowania zabezpieczającego. Zależy od nich efektywność upakowania programów telewizji wieloprogramowej. W paśmie 8MHz w telewizji analogowej mieści się jeden program SDTV, natomiast w telewizji cyfrowej, stosując kompresję strumieni cyfrowych oraz mechanizmy kodowo-modulacyjne (COFDM) można upakować ponad 10 programów o parametrach obrazu i dźwięku odpowiadających analogowej telewizji SDTV. Mechanizm kompresji sekwencji obrazu (MPEG2, MPEG4) nie ma znaczenia dla systemów DVB i ATSC, ponieważ definiują one jedynie sposób transportu dla cyfrowych strumieni audio/wideo.

Z systemami kodowo-modulacyjnymi dla przekazu informacji cyfrowej w telewizjach DVB (T,S,C,CC) i ATSC (USA, Japonia), telefonii GSM, modemach kablowych, WiFi (Internet), sieciach IEEE 802.11, etc., związana jest pewna ciekawostka, albowiem historycznie pierwsze prace z nim związane były prowadzone już w latach 40. XX wieku. Pikanterii dodaje fakt, że pierwsze opatentowane rozwiązanie techniczne (FHSS), zawierające taki mechanizm kodowo-modulacyjny, zostało zaproponowane przez słynną gwiazdę filmową z Hollywood – Hedy Lamarr. Jej hobby były nauki ścisłe: matematyka, technika oraz konstruowanie urządzeń i wynalazki, czym zajmowała się w specjalnie urządzonym laboratorium w domu. Za swoje prace Hedy Lamarr (właściwie: Hedwig Eva Maria Kiesler) otrzymała nagrodę Electronic Frontier Foundation. Jej wynalazek FHSS („frequency-hopping spread spectrum”) z roku 1940 został utajniony przez armię amerykańską do połowy lat 80. XX wieku.

Przechowywanie treści audiowizualnych

Pozostał jeszcze do omówienia ostatni dział techniki radiowej i telewizyjnej. Radiofonie działają od ponad 90 lat, telewizje od lat 60. Przez ten czas zgromadzono bogate zasoby audiowizualne w archiwach. Są to zarejestrowane programy TV, filmy i nagrania dźwiękowe. Niestety wszystkie nośniki używane do zapisów A/V nie pozwalają na długoterminowe przechowywanie treści audiowizualnej. Różnorodność nośników w archiwach radiowych i telewizyjnych odwzorowuje wiele lat rozwoju techniki. Bardzo trudno dziś o stare urządzenia do odtwarzania takich zapisów, dokonanych np. na taśmach magnetycznych A, C. Łatwiej jest znaleźć urządzenia do odczytu treści A/V z analogowych taśm magnetycznych systemu Sony-Betacam, błon filmowych, taśm magnetofonowych czy płyt gramofonowych komercyjnych i studyjnych (decelitowych). Obecnie taśma magnetyczna wychodzi z użycia i jest zastępowana dyskami twardymi, pamięciami elektronicznymi czy nośnikami optycznymi. W dystrybucji nagrań za pomocą nośników, taśmy magnetyczne zostały wyparte przez optyczne nośniki „cyfrowe” (CD/DVD/BluRay). Bardzo popularne od początku lat 60. magnetofony kasetowe zostały wycofane kilka lat temu z produkcji. Podobnie nie są już produkowane, popularne jeszcze w pierwszych latach XXI wieku, magnetowidy systemu VHS. Również sprzęt konsumencki wideo (kamwidy i magnetowidy) na kasety magnetyczne Hi8 został już wycofany z produkcji. Studyjne urządzenia do odtwarzania analogowych nośników są wytwarzane na zamówienie (np. analogowe magnetofony Nagra) lub mechanizm odtwarzania takich nośników jest implementowany w urządzeniach cyfrowych (Digital Betacam DVW A500P).

Różnice w używanych na przestrzeni ponad 60 lat nośnikach magnetycznych są znaczne z punktu widzenia fizyki. Pierwsze proszkowe taśmy magnetyczne miały stosunkowo grube ziarno. Obecne używane proszki ferromagnetyczne mają rozmiary zbliżające się do tzw. granicy superparamagnetycznej. Coraz mniejsze średnice proszków, używane do wytwarzania taśm cyfrowych lub dysków twardych pozwalają na większe upakowanie informacji na tej samej powierzchni. Niestety, po przekroczeniu gradacji proszku ferromagnetycznego na poziomie 6 nm, namagnesowanie znika z powodu obniżenia się temperatury Curie wraz z grubością proszku. Dla proszku ferromagnetycznego o gradacji 3 nm temperatura Curie przejścia fazowego ferromagnetyk-superparamagnetyk spada poniżej zera Celsjusza. W praktyce budowanie nośników, które pracowałby w temperaturach niższych od temperatury co najmniej pokojowej, byłoby bardzo dużym ograniczeniem użytkowym. Taśmy magnetofonowe były pokryte proszkami o względnie grubym ziarnie, co powodowało, że trwałość zapisów na takich taśmach jest stosunkowo długoletnia. Po kilkunastu latach przechowywania nagrań zapisanych na analogowych taśmach magnetofonowych obserwuje się wzrost szumu o 10-12 decybeli. Efekt wzrostu szumu nazywany jest rozmagnetyzowaniem samoistnym. W przypadku taśm cyfrowych wzrost szumu w pewnym momencie spowoduje całkowitą utratę czytelności zapisu. W takim przypadku mechanizmy korekcji nie są w stanie odbudować informacji. Nawet silnie zaszumione zapisy na nośnikach analogowych można poddawać procesom tzw. rekonstrukcji.

W przypadku nagrań na nośnikach cyfrowych, kiedy poziom zakłóceń (np. zarysowania płytek CD/DVD/Bluray) czy zaszumienia przekroczy pewien próg, który nie pozwala na korekcję (zapisy cyfrowe są kodowane korekcyjnie: Reed-Salomon, turbo kodami, kodowaniem Viturbiego i innymi), będą utracone na zawsze. Wzrost entropii (nieuporządkowania) w zapisach informacji na nośnikach rozpiętych na metastabilnych stanach parametrów fizycznych niszczy strukturę nagrania, ale nie samą informację, która pozostanie w ogólności zachowana. Niestety, nie będzie się ona nadawała do odczytu, gdyż nie będzie korygowana przez zastosowanie kodowania korekcyjnego.

W tym miejscu pozwolę sobie na drobną dygresję. Nie mamy konsekwentnej teorii powstawania stanów metastabilnych, którą można nazwać teorią pamięci. Technologie używane do budowy pamięci, szczególnie trwałych, opierają się na wybranych zjawiskach, w których obserwuje się zatrzymanie na pewien czas stanu (wartości) wybranego parametru. Wszystkie technologie, używane obecnie do budowy pamięci trwałych, pozwalają na bardzo ograniczony czas przechowania rozpiętej (zakodowanej) informacji. Badania grupy Jana van Bogarta, jakie były prowadzone w archiwach audiowizualnych w USA w latach 1998-2005, pokazują również inne przyczyny utraty nagrań na nośnikach. Po wielu latach składowania taśmy magnetyczne, zbudowane z kilku warstw plastiku, potrafią się rozwarstwić oraz stracić właściwości mechaniczne np. warstwy podkładowe pękają ze starości, a warstwa lubrykacyjna traci własności smarne.

Do tej pory zapisy analogowe dla pewnych typów nośników okazały się dość trwałe i pozwalają na odczyt informacji audiowizualnej nawet po 180 latach np. dagerotypy. W przypadku nośników cyfrowych producenci sugerują czas trwałości zapisów na kilkanaście lat, może kilkadziesiąt lat. Bez specjalnie skonstruowanych systemów do archiwizacji wieloletniej nie będzie można przechowywać bezpiecznie zapisów audiowizualnych w archiwach bez dodatkowych, okresowo wykonywanych zabiegów, np. migracji informacji na nowe nośniki czy automatycznej regeneracji stanu zapisu.

Podumowanie

Podsumowując krótkie rozważania na temat techniki analogowej, można powiedzieć, że odejście od niej na rzecz techniki cyfrowej nie może być pełne w XXI wieku. Urządzenia do akwizycji naturalnych obrazów i dźwięków oraz końcowej reprodukcji sygnałów analogowych będą nadal rozwijanie i doskonalone. Również technika analogowa będzie miała przewagę nad cyfrową w przypadkach, w których wystąpi konieczność uzyskania bardzo niskiej latencji przetwarzanego sygnału. Zarazem to technika cyfrowa pozwala na łatwiejszą implantację urządzeń (sprzętowych i wirtualnych) do edycji i zaawansowanej obróbki zapisów lub strumieni A/V, czym bije na głowę technikę analogową.

Skróty użyte w tekście

ADC – Analog to Digital Converter
ATSC – Advanced Television Systems Committee
CCD – Charge Coupled Device
DAC – Digital to analog converter
DVB – Digital Video Broadcasting
GSM – Global System for Mobile Communications
IEEE – Institute of Electrical and Electronics Engineers
MPEG – Moving Picture Experts Group
SACD – Superaudio CD


Autor: Jerzy Piotr Walczak. Współpracownik Polskiego Radia, Telewizji Polskiej i ATM S.A. 
Zajmuje się zagadnieniami archiwizacji audiowizualnych zasobów cyfrowych i ich dystrybucją.

Zobacz również