Przełom roku to zawsze okazja do podsumowań i retrospekcji. Można chwilę się zastanowić nad tym co się zdarzyło, co się pojawiło i jak do tego przymierzyć się w przyszłości. W szczególności dotyczy to technologii – co roku pojawia się coś nowego i w pewnym sensie zaskakującego z czym będzie się trzeba zmierzyć. Ideologicznie (najpierw) i praktycznie (później).
Miejscem gdzie rok w rok technologie są omawiane i pokazywane jest wystawa i konferencja SCTE CableTech EXPO. Można tam o technologiach posłuchać, można ich dotknąć, a w szczególności można usłyszeć czym żyje branża i z jakimi problemami / wyzwaniami obecnie się mierzy.
Branża kablowa stoi przed fazą dużej zmiany. Zmiany, która może zatrząść fundamentami biznesu operatora kablowego. Cała sieć HFC jak i biznes operatora wyrósł na oferowaniu usług broadcastowych. Oczywiście telewizyjnych. Później dodane zostały możliwości komunikacji od abonenta (kanał zwrotny) i wprowadzenia usług dostępu do Internetu oraz telefonii. Ale co do zasady sieć pozostała dalej taka sama – główny ruch idzie od headendu do abonenta w postaci broadcastowej. Nawet przesiadka z telewizji analogowej w telewizję cyfrową nie zmieniła tego modelu. Dopiero usługi związane z VoD wprowadziły mechanizmy kierowania strumienia do jednego abonenta, ale w znacznej mierze za pomocą „komutacji QAMów”.
Na dziś rośnie w siłę konkurencja oferująca wszelkiej maści usługi video poprzez Internet. OTT, unicast streaming, usługi w chmurze itp. to hasła technologiczne, które są wprost związane z tymi właśnie usługami. Z drugiej strony naciskają konkurenci innych technologii sieciowych – zarówno tradycyjni TELCO jak i nowopowstałe dynamiczne podmioty wykorzystujące technologie FTTH (głównie GPON). Oferują bardzo duże przepływności co w połączeniu z dostępnością usług video w chmurze tworzy niezbyt korzystny obraz konkurencyjny.
Dlatego konferencja CableTech EXPO w 2015 roku odmieniała przez wszelkie możliwe przypadki dwa trendy technologiczne – DOCIS 3.1 oraz … wirtualizację. DOCSIS 3.1 wiadomo po co – więcej pasma z sieci niższym kosztem i realne sprostanie raz konkurencji FTTH dwa możliwości przesłania unicastowego video. Ale o co chodzi z wirtualizacją?
Wirtualizacja nie ma jednoznacznej definicji, jest raczej pewną ideą pozwalającą na podniesienie efektywności i elastyczności systemu. Jest bardzo mocno związana z ideą chmury, z rozwojem dostępnej mocy obliczeniowej we współczesnych urządzeniach przetwarzających dane (serwerach), z rozwojem oprogramowania oraz z powstaniem bardzo wydajnych sieci zdolnych do szybkiego transmitowania dużej ilości danych. W dużym skrócie wirtualizacja jest procesem przenoszenia funkcjonalności systemu z dedykowanych urządzeń i dedykowanych struktur w stronę centrów obliczeniowych (data center) gdzie dość typowe urządzenia (serwery) przetwarzają dane za pomocą dedykowanego dla danej funkcjonalności oprogramowania. Uff…. skomplikowane. W skrócie to przeniesienie (prawie) wszystkiego w chmurę. Chmura zaś to pewien proces zmiany sposobu oferowania usług. Nie jest to gotowe narzędzie z półki.
W praktyce o czym możemy mówić w kontekście wirtualizacji? Np. o rezygnacji z posiadania headendu i korzystania z zasobów w chmurze. Oznacza to, że gdzieś, jakieś centrum obliczeniowe przetwarza dane przygotowując je tak, aby nasza usługa telewizyjna działa. Można zlecić w ten sposób również tylko część procesu (np. transkodowanie). Zwirtualizować można również inne funkcje sieciowe np. … CMTS, router, STB … Niewątpliwie o wirtualizacji usłyszymy jeszcze bardzo wiele. I mam tylko nadzieję, że nas nie zwirtualizują.
Marcin Ułasik, Product Development Director w VECTOR