Kompleksowy kurs projektowania nowoczesnych infrastruktur sieciowych. Prezentacja obejmuje kluczowe zagadnienia od analizy potrzeb, przez projektowanie fizyczne i logiczne, aż po integrację z zaawansowanymi systemami.
Projektowanie sieci to proces tworzenia niezawodnego i wydajnego fundamentu dla operacji biznesowych. Bez świadomego projektu, sieć staje się chaotyczna, podatna na awarie i trudna w zarządzaniu. Celem jest stworzenie infrastruktury, która nie tylko działa, ale także wspiera rozwój organizacji, zapewnia bezpieczeństwo danych i optymalizuje koszty. Dobry projekt minimalizuje ryzyko przestojów i pozwala na szybkie dostosowywanie się do nowych wymagań technologicznych.
Kluczem do sukcesu jest zrozumienie, jak cele biznesowe przekładają się na konkretne rozwiązania techniczne. Na przykład, potrzeba obsługi wideokonferencji w wysokiej jakości (cel biznesowy) wymaga zapewnienia odpowiedniej przepustowości i niskich opóźnień (wymaganie techniczne), co z kolei implikuje wdrożenie mechanizmów Quality of Service (QoS) oraz potencjalnie modernizację łącz do oddziałów. Zawsze zaczynamy od pytania "po co?", a dopiero potem "jak?".
Sieć to żywy organizm, który ewoluuje wraz z firmą. Model PPDIOO (Prepare, Plan, Design, Implement, Operate, Optimize) opisuje ten cykl. Faza przygotowania i planowania definiuje cele. Projektowanie tworzy szczegółowy plan techniczny. Implementacja to fizyczne wdrożenie. Działanie i optymalizacja to ciągły proces monitorowania, zarządzania i doskonalenia sieci w odpowiedzi na nowe wyzwania i zmieniające się potrzeby biznesowe.
Firma X, rozwijając się dynamicznie, rozbudowywała swoją sieć doraźnie. Skutkowało to "płaską" architekturą, gdzie wszystkie urządzenia działały w jednej domenie rozgłoszeniowej. Problem pojawił się, gdy jeden z komputerów, zainfekowany złośliwym oprogramowaniem, zaczął generować ogromny ruch rozgłoszeniowy (broadcast storm), paraliżując pracę całej firmy na kilka godzin. Brak segmentacji (VLAN) i monitoringu uniemożliwił szybką identyfikację źródła problemu, generując znaczne straty finansowe.
Projektowanie typu Greenfield (zielone pole) odnosi się do sytuacji, w której tworzymy infrastrukturę sieciową od absolutnych podstaw. Nie istnieją żadne wcześniejsze systemy, okablowanie czy konfiguracje, które trzeba by brać pod uwagę. Taka sytuacja ma miejsce najczęściej przy budowie nowej siedziby firmy, otwieraniu nowego oddziału lub wdrażaniu całkowicie nowej technologii, która nie integruje się z istniejącymi rozwiązaniami.
Projektowanie typu Brownfield (teren z istniejącą zabudową) to najczęstszy scenariusz w pracy inżyniera sieci. Polega on na modernizacji, rozbudowie lub modyfikacji istniejącej już infrastruktury sieciowej. Wymaga to głębokiego zrozumienia działających systemów, ich ograniczeń oraz zależności. Celem jest integracja nowych rozwiązań przy jednoczesnym zapewnieniu ciągłości działania starych systemów podczas procesu migracji.
Przed rozpoczęciem jakichkolwiek zmian w istniejącej sieci, kluczowe jest przeprowadzenie dokładnego audytu. Audyt powinien obejmować inwentaryzację sprzętu (modele, wersje oprogramowania), analizę okablowania (kategorie, stan), mapowanie topologii fizycznej i logicznej (VLANy, adresacja IP) oraz analizę ruchu sieciowego. Bez tych informacji, każda próba modernizacji jest obarczona ogromnym ryzykiem spowodowania awarii lub nieprzewidzianych problemów z wydajnością.
Firma decyduje się na wdrożenie telefonii IP (VoIP) i nowej sieci Wi-Fi dla gości. Audyt wykazał, że istniejące przełączniki nie obsługują standardu PoE (Power over Ethernet), co jest wymagane do zasilania telefonów i punktów dostępowych. Projekt modernizacji (Brownfield) zakłada wymianę przełączników dostępowych na nowe, z obsługą PoE. Dodatkowo, tworzone są nowe sieci VLAN w celu odseparowania ruchu głosowego i gościnnego od sieci korporacyjnej, co zwiększa bezpieczeństwo i zapewnia jakość połączeń głosowych dzięki QoS.
Okablowanie strukturalne to ustandaryzowany system okablowania telekomunikacyjnego, który tworzy szkielet dla wszystkich systemów niskoprądowych w budynku. Jego podstawą jest model hierarchiczny, składający się z okablowania pionowego (szkieletowego), które łączy piętra, oraz okablowania poziomego, które rozprowadza sygnał od punktu dystrybucyjnego na piętrze do gniazdek abonenckich. Taka struktura zapewnia porządek, łatwość zarządzania i skalowalność.
Aby zapewnić kompatybilność i wydajność, systemy okablowania muszą być zgodne z międzynarodowymi standardami. Najważniejsze z nich to amerykański standard TIA-568 (dawniej TIA/EIA-568) oraz międzynarodowy ISO/IEC 11801. Standardy te precyzyjnie definiują parametry dla komponentów (kabli, złącz), topologię, maksymalne długości poszczególnych torów transmisyjnych oraz metody testowania i certyfikacji wykonanej instalacji. Stosowanie się do norm jest gwarancją niezawodności sieci.
Okablowanie poziome to część systemu, która biegnie od punktu dystrybucyjnego na piętrze (szafy IDF) do gniazdka w obszarze roboczym. Zgodnie ze standardami, maksymalna długość stałego toru okablowania poziomego nie może przekraczać 90 metrów. Pozostałe 10 metrów w 100-metrowym kanale jest zarezerwowane na kable krosowe (patchcordy) w szafie i przy stanowisku pracy. Najczęściej stosowanym medium w okablowaniu poziomym jest miedziana skrętka czteroparowa.
Okablowanie pionowe, zwane też szkieletowym (backbone), łączy główny punkt dystrybucyjny (MDF), zazwyczaj zlokalizowany w serwerowni, z pośrednimi punktami dystrybucyjnymi (IDF) na poszczególnych piętrach lub w innych budynkach. Ze względu na potrzebę dużej przepustowości i większe odległości, dominującym medium w okablowaniu pionowym jest światłowód. W niektórych przypadkach, na krótszych dystansach, stosuje się również skrętkę wyższych kategorii.
Szafa dystrybucyjna (rackowa) to metalowa szafa o standardowej szerokości 19 cali, stanowiąca centralny punkt dla sprzętu sieciowego i okablowania na danym obszarze. Umożliwia uporządkowany montaż urządzeń takich jak przełączniki, routery, serwery, panele krosownicze i zasilacze UPS. Wysokość urządzeń i szaf podaje się w jednostkach "U" (1U = 1,75 cala = 44,45 mm). Dostępne są szafy wiszące (mniejsze, do montażu na ścianie) oraz stojące (większe, do serwerowni).
W hierarchicznej strukturze okablowania wyróżniamy dwa typy punktów dystrybucyjnych. Główny Punkt Dystrybucyjny (MDF - Main Distribution Facility) to centralne miejsce, gdzie schodzi się okablowanie szkieletowe z całego budynku lub kampusu i gdzie zazwyczaj znajduje się połączenie z siecią zewnętrzną. Pośrednie Punkty Dystrybucyjne (IDF - Intermediate Distribution Facility) to szafy zlokalizowane na poszczególnych piętrach, które agregują okablowanie poziome z danego obszaru i łączą je z MDF za pomocą okablowania pionowego.
Pomieszczenia te są sercem sieci i muszą spełniać określone wymagania. Należy zapewnić odpowiednią nośność stropu, kontrolowane warunki środowiskowe (temperatura 18-27°C, wilgotność względna 40-60%), dedykowane zasilanie oraz systemy chłodzenia. Drzwi powinny być odpowiednio szerokie i otwierać się na zewnątrz. Kluczowa jest również kontrola dostępu, aby uniemożliwić wejście osobom nieupoważnionym.
Bezpieczeństwo przeciwpożarowe jest krytycznym aspektem projektowania infrastruktury. Wszystkie przejścia kabli przez ściany i stropy oddzielenia pożarowego muszą być zabezpieczone za pomocą certyfikowanych przepustów ogniowych, które zapobiegają rozprzestrzenianiu się ognia i dymu. Stosowane kable muszą spełniać normy palności określone w rozporządzeniu CPR (Construction Products Regulation), które klasyfikuje kable pod względem reakcji na ogień. W serwerowniach stosuje się systemy gaszenia gazem, bezpieczne dla urządzeń elektronicznych.
Niezawodne zasilanie jest tak samo ważne jak sama sieć. Pierwszym krokiem jest oszacowanie całkowitego zapotrzebowania na moc (w Watach lub Woltoamperach) dla wszystkich urządzeń, które będą zainstalowane w szafach RACK. Należy zsumować maksymalny pobór mocy z tabliczek znamionowych wszystkich przełączników, serwerów, routerów itp., a następnie dodać zapas na przyszłą rozbudowę (zazwyczaj 25-30%).
Szafy RACK i serwerownie powinny być zasilane z dedykowanych, oddzielnych obwodów elektrycznych, niezależnych od oświetlenia czy gniazdek ogólnego użytku. Minimalizuje to ryzyko zakłóceń i przeciążeń. Równie ważne jest prawidłowe uziemienie. Wszystkie metalowe elementy szafy oraz obudowy urządzeń muszą być połączone z główną szyną wyrównawczą budynku, co zapewnia bezpieczeństwo i odprowadza ładunki elektrostatyczne.
Zasilacz awaryjny (UPS - Uninterruptible Power Supply) to urządzenie, które zapewnia natychmiastowe podtrzymanie zasilania w przypadku zaniku napięcia w sieci. Jego głównym celem nie jest wielogodzinna praca, ale zapewnienie czasu na bezpieczne zamknięcie systemów lub na uruchomienie agregatu prądotwórczego. UPS chroni również podłączony sprzęt przed przepięciami, spadkami napięcia i innymi anomaliami w sieci elektrycznej.
W obiektach, gdzie wymagana jest wielogodzinna lub wielodniowa ciągłość działania (np. centra danych, szpitale), sam UPS nie wystarczy. W takich przypadkach stosuje się agregaty prądotwórcze, które uruchamiają się automatycznie po wykryciu dłuższego zaniku zasilania. System SZR (Samoczynne Załączanie Rezerwy) zarządza przełączeniem zasilania z sieci na agregat. Rola UPS sprowadza się wtedy do podtrzymania zasilania w czasie potrzebnym na uruchomienie i stabilizację pracy agregatu.
Urządzenia sieciowe i serwery generują duże ilości ciepła. Zapewnienie odpowiedniego chłodzenia jest kluczowe dla ich stabilnej pracy. W serwerowniach stosuje się klimatyzację precyzyjną, która w odróżnieniu od klimatyzacji komfortu, jest zaprojektowana do pracy ciągłej (24/7) i precyzyjnej kontroli nie tylko temperatury, ale i wilgotności. Planowanie przepływu powietrza (np. układ zimnych i gorących korytarzy) jest równie ważne, co sama wydajność urządzeń chłodzących.
Najlepsze zabezpieczenia logiczne sieci na nic się nie zdadzą, jeśli nieupoważniona osoba będzie miała fizyczny dostęp do sprzętu. Bezpieczeństwo fizyczne obejmuje kontrolę dostępu do serwerowni i szaf RACK (zamki, karty dostępu, biometria), systemy monitoringu wizyjnego (CCTV) oraz systemy alarmowe (SSWiN). Ważne jest również prowadzenie rejestru wejść i wyjść z kluczowych pomieszczeń.
Sieci bezprzewodowe (WLAN) stały się nieodłącznym elementem nowoczesnych infrastruktur, zapewniając mobilność i wygodę. Ich działanie opiera się na standardach z rodziny IEEE 802.11. Najpopularniejsze z nich to 802.11n, 802.11ac (Wi-Fi 5) oraz najnowszy 802.11ax (Wi-Fi 6), które różnią się prędkościami, wykorzystywanymi pasmami i zaawansowanymi technikami transmisji, takimi jak MU-MIMO i OFDMA.
Nowoczesne sieci projektuje się tak, aby jak najwięcej urządzeń korzystało z pasma 5 GHz, rezerwując 2.4 GHz dla starszych urządzeń lub mniej wymagających zastosowań.
Profesjonalne projektowanie sieci Wi-Fi wymaga przeprowadzenia wizji lokalnej z pomiarami, czyli tzw. Site Survey. Używając specjalistycznego oprogramowania (np. Ekahau, NetSpot) i tymczasowo rozmieszczonych punktów dostępowych, tworzy się mapy cieplne (heatmaps) pokazujące przewidywany poziom sygnału, stosunek sygnału do szumu (SNR) oraz interferencje. Pozwala to na optymalne zaplanowanie lokalizacji i liczby punktów dostępowych (AP) jeszcze przed montażem.
Celem nie jest tylko zapewnienie sygnału, ale zapewnienie sygnału o odpowiedniej jakości. Punkty dostępowe powinny być montowane w centralnych punktach obsługiwanych obszarów, najlepiej na suficie, z dala od metalowych przeszkód. W środowiskach o dużej gęstości użytkowników (sale konferencyjne, aule) stosuje się więcej punktów dostępowych pracujących z mniejszą mocą, aby rozłożyć obciążenie i zminimalizować interferencje.
W paśmie 2.4 GHz dostępne są w Europie kanały od 1 do 13, jednak tylko trzy z nich (1, 6, 11) nie nakładają się na siebie. Aby uniknąć wzajemnych zakłóceń (interferencji współkanałowej), sąsiadujące ze sobą punkty dostępowe muszą pracować na różnych kanałach z tej trójki. Planowanie kanałów przypomina kolorowanie mapy – dwa sąsiadujące obszary nie mogą mieć tego samego koloru (kanału).
Pasmo 5 GHz oferuje znacznie większą elastyczność dzięki dostępności ponad 20 nienakładających się kanałów (przy szerokości 20 MHz). Pozwala to na łatwiejsze projektowanie sieci o dużej gęstości punktów dostępowych bez ryzyka wzajemnych zakłóceń. Dodatkowo, możliwe jest łączenie kanałów (channel bonding) w szersze pasma (40, 80, a nawet 160 MHz), co pozwala na osiąganie bardzo wysokich przepustowości, kosztem zmniejszenia liczby dostępnych kanałów.
Bezpieczeństwo jest kluczowe w sieciach bezprzewodowych. Historyczny standard WEP jest całkowicie złamany i nie wolno go używać. WPA wprowadziło poprawki, ale również jest już niezalecane. Absolutnym minimum jest standard WPA2 z silnym hasłem (PSK). Najnowszy standard, WPA3, oferuje znacznie lepszą ochronę, m.in. poprzez zabezpieczenie przed atakami słownikowymi offline. W środowiskach korporacyjnych zamiast wspólnego hasła stosuje się uwierzytelnianie w standardzie 802.1X.
WPA-Enterprise, oparte na standardzie IEEE 802.1X, to rozwiązanie dla firm, które eliminuje problem wspólnego hasła. Każdy użytkownik uwierzytelnia się za pomocą swoich indywidualnych poświadczeń (np. loginu i hasła z domeny Active Directory), które są weryfikowane przez centralny serwer uwierzytelniania RADIUS. Daje to możliwość centralnego zarządzania dostępem, przypisywania użytkowników do odpowiednich sieci VLAN oraz natychmiastowego odbierania uprawnień po zwolnieniu pracownika.
Adres IP w wersji 4 to 32-bitowa liczba, która jednoznacznie identyfikuje urządzenie w sieci. W sieciach wewnętrznych (LAN) stosuje się adresy z puli prywatnej, zdefiniowanej w dokumencie RFC 1918. Są to zakresy: 10.0.0.0/8, 172.16.0.0/12 oraz 192.168.0.0/16. Adresy te nie są routowalne w publicznym internecie i mogą być swobodnie używane wewnątrz organizacji. Komunikacja z internetem odbywa się poprzez translację adresów NAT na routerze brzegowym.
Maska podsieci to 32-bitowa liczba, która służy do podziału adresu IP na dwie części: adres sieci i adres hosta. Bity w masce ustawione na '1' definiują część sieciową, a bity ustawione na '0' definiują część hosta. Dzięki masce urządzenie jest w stanie określić, czy adres docelowy znajduje się w tej samej podsieci (i może wysłać pakiet bezpośrednio), czy w innej (i musi wysłać pakiet do bramy domyślnej, czyli routera).
Subnetting to proces "pożyczania" bitów z części hosta adresu IP w celu stworzenia większej liczby mniejszych podsieci. Pozwala to na logiczny podział dużej sieci na mniejsze, zarządzalne segmenty (np. osobne podsieci dla każdego działu, piętra). Zwiększa to bezpieczeństwo (ruch między podsieciami musi przejść przez router, gdzie można go filtrować) i wydajność (ogranicza ruch rozgłoszeniowy do jednej podsieci).
VLSM to technika, która pozwala na stosowanie różnych masek podsieci w ramach jednej, większej sieci. Jest to rozwinięcie idei subnettingu, które pozwala na jeszcze bardziej efektywne wykorzystanie dostępnej przestrzeni adresowej. Dzięki VLSM możemy tworzyć podsieci o różnej wielkości, dopasowane do faktycznych potrzeb. Na przykład, dla połączenia punkt-punkt między dwoma routerami wystarczy podsieć z dwoma adresami hosta (/30), podczas gdy dla sieci użytkowników potrzebujemy znacznie większej podsieci.
Dobry schemat adresacji jest hierarchiczny i logiczny. Zaczyna się od przydzielenia dużych bloków adresowych dla poszczególnych lokalizacji geograficznych (np. 10.1.0.0/16 dla Warszawy, 10.2.0.0/16 dla Krakowa). Następnie, w ramach każdej lokalizacji, bloki te są dalej dzielone na mniejsze podsieci dla poszczególnych pięter, działów czy funkcji (np. 10.1.10.0/24 dla działu IT w Warszawie, 10.1.20.0/24 dla serwerów). Taka struktura ułatwia zarządzanie, rozwiązywanie problemów i agregację tras routingu.
Protokół DHCP (Dynamic Host Configuration Protocol) automatyzuje proces przydzielania adresów IP i innych parametrów konfiguracyjnych (maski podsieci, bramy domyślnej, serwerów DNS) urządzeniom końcowym. Eliminuje to konieczność ręcznej konfiguracji każdego komputera i zapobiega błędom, takim jak konflikty adresów IP. Serwer DHCP zarządza pulą dostępnych adresów i "wypożycza" je klientom na określony czas.
System DNS (Domain Name System) działa jak książka telefoniczna internetu, tłumacząc łatwe do zapamiętania dla ludzi nazwy domenowe (np. www.google.com) na adresy IP, które są zrozumiałe dla urządzeń sieciowych. W sieciach korporacyjnych wewnętrzny serwer DNS obsługuje nazwy lokalnych serwerów i usług (np. intranet.firma.local). Prawidłowa konfiguracja DNS jest absolutnie kluczowa dla funkcjonowania niemal wszystkich aplikacji sieciowych.
Tradycyjnie, systemy takie jak telefonia, monitoring wideo czy kontrola dostępu działały na oddzielnych, dedykowanych instalacjach kablowych. Koncepcja sieci konwergentnej zakłada integrację wszystkich tych systemów w jednej, wspólnej infrastrukturze opartej na protokole IP. Zamiast wielu oddzielnych sieci, mamy jedną, standardową sieć Ethernet, która przenosi ruch danych, głosu, wideo i systemów bezpieczeństwa. Upraszcza to zarządzanie i obniża koszty.
Chociaż wszystkie systemy działają na tej samej infrastrukturze fizycznej, kluczowe jest ich logiczne odseparowanie. Służą do tego wirtualne sieci lokalne (VLAN). Tworzy się dedykowane sieci VLAN dla każdego systemu, np. VLAN 10 dla komputerów, VLAN 20 dla telefonów IP, VLAN 30 dla kamer CCTV, VLAN 40 dla gości. Urządzenia w różnych sieciach VLAN nie mogą komunikować się ze sobą bezpośrednio, co znacznie zwiększa bezpieczeństwo.
Izolacja VLAN jest fundamentalnym mechanizmem bezpieczeństwa. Wyobraźmy sobie, że gość podłączający się do sieci Wi-Fi ma dostęp do tej samej sieci, co serwery firmy - byłaby to katastrofa. Dzięki VLAN, sieć dla gości jest całkowicie odizolowana i ma dostęp tylko do internetu. Podobnie, nawet jeśli atakujący uzyska dostęp do kamery IP, dzięki izolacji VLAN nie będzie w stanie zaatakować z niej serwerów firmowych czy stacji roboczych.
W sieci konwergentnej różne typy ruchu mają różne wymagania. Ruch poczty elektronicznej może być opóźniony o kilka sekund bez żadnych konsekwencji. Jednak nawet niewielkie opóźnienie w transmisji głosu (VoIP) czy wideo powoduje drastyczny spadek jakości. Mechanizmy Quality of Service (QoS) pozwalają na klasyfikację i priorytetyzację ruchu. Dzięki QoS, przełączniki i routery mogą zapewnić, że pakiety głosowe i wideo będą obsługiwane w pierwszej kolejności, nawet w przypadku dużego obciążenia sieci.
PoE to technologia, która umożliwia zasilanie urządzeń sieciowych bezpośrednio przez ten sam kabel skrętki, który służy do transmisji danych. Jest to ogromne ułatwienie przy instalacji telefonów IP, punktów dostępowych Wi-Fi, kamer IP czy czujników IoT, ponieważ eliminuje potrzebę prowadzenia oddzielnego zasilania do każdego z tych urządzeń. Istnieje kilka standardów PoE (802.3af, 802.3at, 802.3bt), które różnią się maksymalną mocą dostarczaną do urządzenia. Standard 802.3bt (PoE++) pozwala na zasilanie urządzeń wymagających do 90 W, co umożliwia zasilanie takich urządzeń jak kamery PTZ czy wyświetlacze informacyjne.
Dokumentacja nie jest tylko formalnością na koniec projektu - jest niezbędnym narzędziem na każdym etapie życia sieci. W fazie projektowania pozwala zwizualizować i zweryfikować koncepcję. Podczas implementacji jest przewodnikiem dla instalatorów. W fazie operacyjnej jest kluczowa dla szybkiego diagnozowania problemów, planowania zmian i szkolenia nowych administratorów. Zaniedbanie dokumentacji prowadzi do chaosu i znacznie podnosi koszty utrzymania sieci.
Schematy fizyczne pokazują, jak i gdzie elementy sieci są fizycznie rozmieszczone. Powinny zawierać rzuty budynków z naniesionymi lokalizacjami szaf RACK, przebiegiem tras kablowych oraz umiejscowieniem gniazdek sieciowych. Ważnym elementem jest również schemat montażu urządzeń w szafie (rack layout), który pokazuje dokładne umiejscowienie każdego przełącznika, panelu krosowniczego i serwera.
Schematy logiczne ilustrują, jak sieć jest zorganizowana z perspektywy przepływu danych, niezależnie od fizycznego rozmieszczenia. Pokazują one topologię sieci, połączenia między routerami i przełącznikami, zdefiniowane sieci VLAN, schemat adresacji IP oraz konfigurację protokołów routingu. Są one absolutnie niezbędne do zrozumienia działania sieci i rozwiązywania problemów.
Kompletna dokumentacja powinna zawierać również kopie zapasowe konfiguracji wszystkich urządzeń sieciowych (routerów, przełączników, firewalli). Niezbędna jest także szczegółowa lista sprzętu (BoM - Bill of Materials) zawierająca model, numer seryjny i lokalizację każdego urządzenia. Prowadzenie takiej inwentaryzacji ułatwia zarządzanie gwarancjami, licencjami i planowanie wymiany sprzętu.
Podczas tego kursu przeszliśmy przez wszystkie kluczowe etapy projektowania nowoczesnej sieci komputerowej. Zaczęliśmy od zrozumienia potrzeb biznesowych, a skończyliśmy na tworzeniu szczegółowej dokumentacji. Nauczyliśmy się, jak planować warstwę fizyczną, logiczną, bezprzewodową oraz jak integrować różne systemy w jednej, spójnej infrastrukturze. Pamiętajmy, że dobry projekt to fundament, na którym opiera się stabilność, wydajność i bezpieczeństwo całej informatyki w organizacji.
Wiedza zdobyta na tym kursie stanowi doskonałą podstawę do dalszego rozwoju w dziedzinie sieci komputerowych. Warto rozważyć pogłębienie wiedzy w konkretnych obszarach i potwierdzenie jej poprzez uzyskanie certyfikatów branżowych, takich jak CompTIA Network+, Cisco CCNA, czy certyfikaty z zakresu bezpieczeństwa lub technologii bezprzewodowych. Rynek pracy stale poszukuje wykwalifikowanych inżynierów sieciowych.