Technologiczne, Gadżety, Telefony Komórkowe, Pobieranie Aplikacji!

Co to jest wirtualny serwer NAS, jakie ma funkcje i komponenty?

W połowie lat 80. organizacje zwiększyły produktywność pracowników, udostępniając zasoby obliczeniowe na komputerach stacjonarnych, ale obciążenie pracą menedżerów IT wzrosło dwukrotnie.

Jednym z problemów, z jakim borykali się specjaliści IT, była obsługa i zarządzanie przestrzenią dyskową, z której korzystają użytkownicy.

Wkraczając w lata 90-te, problemy związane z sieciami, użytkownikami końcowymi i zarządzaniem danymi, osiąganiem najlepszej wydajności, skalowaniem, redukcją przestojów i możliwością odzyskania danych nabrały nowego kształtu.

To wtedy pojawiła się technologia sieciowej pamięci masowej (NAS), choć znacznie różniła się od tego, co dzisiaj nazywamy NAS.

Aby zapoznać się z wirtualnym NAS, musimy najpierw zobaczyć, jakie możliwości oferują tradycyjne mechanizmy NAS i z jakimi ograniczeniami się borykają, co ostatecznie sprawiło, że technologia wirtualizacji wkroczyła w świat pamięci sieciowych.

Co to jest pamięć sieciowa?

Pamięć masowa podłączona do sieci wirtualnej (Virtual NAS) to maszyna wirtualna (Virtual Machine), która jest dostępna dla użytkowników jako serwer plików. W tym przypadku, NAS udostępniana jest klientom w postaci dedykowanych nośników z unikalnym adresem, na których udostępniane są usługi przechowywania danych. Wirtualny NAS ma kilka znaczących zalet w porównaniu z tradycyjną pamięcią blokową w środowiskach sieciowych.

Wirtualny NAS zarządzane jest poprzez interfejs podobny do serwerów wirtualnych w sieci. W związku z tym można go przenieść z jednego hosta fizycznego na drugiego. Ta funkcja upraszcza proces konserwacji, minimalizuje przestoje i pomaga ekspertom sieciowym szybko odzyskać i przywrócić warunki w przypadku cyberataków lub problemów.

W przypadku nagłego i dramatycznego wzrostu zapotrzebowania na zasoby sieciowe wirtualny serwer NAS można szybko przenieść na solidniejszy i szybszy host, aby zapewnić wszystkim użytkownikom wymagane usługi bez zakłóceń. Ponadto wirtualny serwer NAS zapewnia prosty mechanizm skalowalności w miarę wzrostu liczby przechowywanych danych.

Pierwsza generacja serwerów NAS

Fizyczne miejsce przechowywania plików. NAS wczesnej generacji serwery były w większości serwerami ogólnymi, skonfigurowanymi do wykonywania jednego konkretnego zadania polegającego na udostępnianiu plików. Serwery te były dobre w wykonywaniu określonego zadania. Korzystając z zaawansowanych technik, które uprościły procesy konfiguracji i instalacji, serwery NAS umożliwiły administratorom IT przezwyciężenie trudności związanych z zarządzaniem, konfiguracją i dostępnością oraz skupienie się na zarządzaniu plikami i strukturami plików, poświęcając mniej czasu na zarządzanie nośnikami pamięci.

Dodanie serwera NAS do sieci było proste; zarządzanie i utrzymanie nie było skomplikowane. Służył głównie do klasyfikowania i udostępniania plików oraz konsolidowania przestrzeni dyskowej. Został zainstalowany w ciągu zaledwie kilku minut i wymagał minimalnego przygotowania. Obsługuje także funkcję udostępniania danych w środowisku heterogenicznym.

Jednakże w miarę rozszerzania się działalności biznesowej i zwiększania się złożoności architektur sieci korporacyjnych zaczęły pojawiać się ograniczenia NAS szybko stało się oczywiste. NAS wczesnej generacji serwery nie zapewniały dobrej skalowalności i nie były w stanie zaspokoić potrzeb dużych organizacji.

Jedną z największych przeszkód w skalowalności wczesnych serwerów NAS była niemożność systemu plików serwera NAS.

Problem ten w istotny sposób wpłynął na dostępność, sposób i czas realizacji zadań. Gdy organizacja potrzebowała miejsca na dysku lub lepszej wydajności, musiała kupić nowy serwer i dodać go do sieci.

Powyższe podejście obejmowało dodanie serwera, wymianę starego serwera na nową instancję, przeniesienie aplikacji na nowy serwer, skopiowanie istniejących danych na nowy serwer, zmianę mechanizmu udostępniania, zdefiniowanie nowego serwera dla systemów desktopowych w celu lokalizacji najświeższych danych, i ponownie skonfiguruj nowe zasoby.

Co spowodowało, że działalność biznesowa organizacji została poważnie zakłócona na co najmniej kilka dni. Ponieważ skalowalność była koszmarem, duże organizacje musiały używać serwerów NAS o pojemności i mocy obliczeniowej przekraczającej ich potrzeby biznesowe, aby uniknąć wdrażania sieci od zera, jeśli potrzebowały większej pojemności lub wydajności.

Jak można się domyślić, proces ten był nieefektywny i kosztowny. Podsumowując, pierwsza generacja NAS oferująca możliwości funkcjonalne nie nadążała za postępem w świecie technologii. W efekcie szybko utraciły urok i łatwość obsługi, które kiedyś zapewniały im tak duży sukces.

Powstanie SAN

Chwila NAS serwery były używane w skali wydziałów i grup, na poziomie przedsiębiorstwa pojawiła się inna architektura pamięci masowej zwana siecią magazynowania (SAN). To, co zrobiła sieć SAN, polegało na oddzieleniu serwerów od całej pamięci masowej. Aby wszystkie urządzenia pamięci masowej zostały wdrożone w sieci szkieletowej zorientowanej na bloki. Kontekst, do którego miały dostęp wszystkie serwery w tym kontekście.

w odróżnieniu NAS, która zapewnia zarządzanie oparte na plikach, sieci SAN zarządzają zasobami pamięci masowej na poziomie bloku i urządzenia. W tym przypadku nie ma systemów plików powiązanych z siecią SAN. Brak systemu plików umożliwia sieciom SAN łatwiejszą obsługę zwiększania pojemności.

Również podłączanie nowych serwerów do sieci pamięci masowej stało się prostsze niż wcześniej. Powyższe podejście rozwiązało problemy pierwszej generacji NASMa rozwiązać problem skalowalności, dostępności i wydajności.

Jednakże wyzwania związane z zarządzaniem siecią SAN stały się widoczne wraz ze wzrostem wydajności i złożoności sieci SAN. Ponieważ sieć SAN jest zaimplementowana na poziomie bloku i urządzenia i nie ma wiedzy na temat plików ani systemów plików, administratorzy sieci musieli skonfigurować sieć SAN na najniższym poziomie, czyli numer jednostki logicznej (LUN), porty przełączników, napędy dyskowe, pamięć masowa (SCSI), Fibre Channel, karty HBA itp. Dzięki temu wszystkimi danymi zarządzano na poziomie bloków, a nie plików.

Problem z siecią SAN Fabric polegał na tym, że w miarę jej wzrostu szybko wymykała się spod kontroli.

Aby uprościć zarządzanie siecią SAN, wynaleziono technologię „wirtualizacji pamięci masowej” (Storage Virtualization), która szybko przyciągnęła uwagę organizacji.

Powyższa technologia umożliwia administratorom sieci wdrażanie urządzeń pamięci masowej jako publicznej puli pamięci. Oprogramowanie do wirtualizacji sieci SAN tworzy wirtualną warstwę pamięci masowej pomiędzy systemem operacyjnym serwera a pamięcią fizyczną. Ta warstwa pamięci masowej tworzy wirtualną kolekcję prezentowaną systemowi operacyjnemu serwera w postaci pokaźnego woluminu lub dysku, który można uaktualnić.

W warstwie wirtualizacji niskiego poziomu możliwe jest dynamiczne zwiększanie fizycznej pojemności przestrzeni dyskowej bez konieczności zmiany architektury czy aplikacji.

Wydajność technologii wirtualizacji w interakcji z sieciami SAN była tak wydajna, że ​​administratorzy sieci mogli w krótkim czasie nauczyć się zarządzania woluminami fizycznymi i woluminami wirtualnymi. Dzięki temu sieci SAN po raz kolejny przyciągnęły uwagę firm jako wydajny mechanizm przechowywania danych z prostym zarządzaniem. Łatwość obsługi sprawiła, że ​​wirtualizacja znalazła zastosowanie w innych obszarach, takich jak wirtualizacja serwerów, sieć itp.

Niektóre z tych podejść do wirtualizacji działały lepiej niż podobne przykłady i pomogły administratorom sieci w prostszym wykonywaniu zadań, ale nie eliminowały złożoności zarządzania przestrzenią dyskową. Z tego powodu specjaliści ds. pamięci masowej wciąż poszukiwali rozwiązania pozwalającego przezwyciężyć problem złożoności zarządzania przestrzenią dyskową.

Obecny

Dzisiejszy NAS systemy mają większą pojemność i wydajność niż ich poprzednicy. Ze względu na zwiększoną wydajność, dzisiejszy Rozwiązania NAS są wykorzystywane w różnych dziedzinach, które były dalekie od oczekiwanych w przeszłości.

Większość firm oferuje różne podejścia do rozwiązywania problemów ze skalowalnością i rozwojem NAS. Na przykład niektórzy opracowali bardziej znaczącą i szybszą pamięć masową; Niektórzy skupili się na opracowaniu specjalistycznego sprzętu w tej dziedzinie, takiego jak przełączniki czujnikowe; Inni opracowali swoje rozwiązania wirtualizacyjne; i inni ustawiają serwery NAS oparte na oprogramowaniu, które są oparte na hoście, kontekstowe lub samodzielne.

Problem z niektórymi z powyższych rozwiązań polega na tym, że większość nowych serwerów NAS wykorzystuje tę samą architekturę, co serwery NAS z lat dziewięćdziesiątych, lub dodaje do architektury pamięci masowej dodatkowe warstwy oprogramowania lub sprzętu, co zwiększa złożoność i zużycie.

Część oferowanych rozwiązań dotyczy serwerów NAS

Oparty na serwerze monolitycznym

Zintegrowane projekty oferują tradycyjne korzyści NAS, takie jak proste wdrażanie i scentralizowane przechowywanie plików. Ten NAS design skupia się wokół Thin Server, dostosowanego systemu operacyjnego do szybkiego zarządzania operacjami wejścia i wyjścia oraz obsługi technologii RAID w celu ochrony danych. Aby klienci sieciowi mieli dostęp do NAS serwer poprzez połączenie Ethernet 10/100/1000 Mbps.

Nowsze architektury efektywniej wykorzystują zwiększoną pojemność i lepszą wydajność. Mimo to projekty te nie są w stanie pokonać ograniczeń serwera NAS, który wymaga pojedynczego systemu plików lub nie jest w stanie zapewnić scentralizowanego zarządzania systemami rozproszonymi w różnych regionach geograficznych.

Oparty na oprogramowaniu

Rozwiązania oparte na oprogramowaniu oferują pakiety oprogramowania, które przekształcają standardowe serwery Windows i Unix NAS urządzenia. To oprogramowanie zapewnia funkcje i możliwości dla NAS kierownictwo.

Ponieważ powyższe rozwiązanie jest zaimplementowane na sprzęcie systemowym, zwanym bare metal i umieszczone bezpośrednio na sprzęcie lub na górze systemu operacyjnego, charakteryzuje się gorszą wydajnością niż profesjonalne komercyjne serwery NAS.

Podobnie jak w przypadku monolitycznych architektur NAS, rozwiązania oparte na oprogramowaniu borykają się z tymi samymi problemami ze skalowalnością, wydajnością i zarządzaniem, z którymi zmagały się tradycyjne konstrukcje NAS. Jednak w niektórych scenariuszach sprawdzają się dobrze.

Agregacja pamięci masowej (agregacja NAS)

Agregacja pamięci masowej działa w oparciu o technologię tradycyjną NAS agregacja serwerów oraz agregacja lub wirtualizacja pamięci masowej dla klientów. Powyższe rozwiązanie stwarza wiele problemów. Podwaja złożoność projektu i wdrożenia, zmniejsza wydajność (ponieważ jeden z zagregowanych urządzeń może mieć niską wydajność), zwiększa opóźnienie w przetwarzaniu danych i może zniszczyć integralność danych.

Mechanizmy agregacji pamięci masowej rozwiązują niektóre problemy z zarządzaniem i skalowaniem, ale potencjalnie powodują więcej problemów. Chociaż powyższa architektura jest rozwinięta NASnadal boryka się z irytującymi problemami ze skalowaniem i zarządzaniem.

Następna generacja sieciowych pamięci masowych

Takie problemy spowodowały, że świat pamięci masowej i sieci zaczął szukać kompleksowego i zintegrowanego rozwiązania w zakresie pamięci masowej. Rozwiązanie, które może reagować na rosnące możliwości i zapewnia wydajne funkcje zarządzania, które dopasowują się do zmian w świecie technologii informatycznych.

Rozwiązanie, które można zintegrować z technologią wirtualizacji, zapewnia najprostszą formę zarządzania, eliminuje nieefektywności i minimalizuje dodatkowe koszty.

Różne firmy, takie jak QNAP, Synology, HP, Spinnaker Networks itp., opracowały technologię nowej generacji NAS aby sprostać wymaganiom rynku, oferując skalowalność i wydajność w celu zaspokojenia potrzeb przedsiębiorstw i dostawców usług.

Firmy te wprowadziły własne systemy operacyjne z wbudowanymi większością wirtualnych funkcji: kompletne rozwiązanie, które pozwala przezwyciężyć problemy ze skalowaniem, wydajnością i zarządzaniem.

Na przykład system operacyjny SpinFS firmy Spinnaker implementuje dwuwarstwową architekturę rozproszoną, która oddziela operacje sieciowe od operacji dyskowych. SpinFS obsługuje klastrowanie SpinServerów i pozwala na zwiększenie wydajności bez zakłócania wydajności sieci.

Ogólnie rzecz biorąc, systemy operacyjne zapewniające możliwości wirtualizacji dla serwerów NAS mają standardowe funkcje, z których najważniejsze to:

  • Udostępnianie rozproszonego globalnego systemu plików na wielu serwerach.
  • Implementacja repozytoriów pamięci specyficznych dla aplikacji.
  • Przesyłanie danych online bez przerw.
  • Grupowanie klientów w celu bezpiecznego udostępniania między nimi zasobów.
  • Grupowanie klientów w celu logicznego zarządzania nimi.
  • Dostarczaj szczegółowe raporty dotyczące problemów z portami.
  • Rozkład obciążenia pomiędzy serwerami bez zakłócania pracy klientów.

Funkcje wirtualne

Jedna z podstawowych kwestii, na którą należy zwrócić uwagę podczas korzystania z technologii wirtualizacji NAS to „wirtualny system plików” (VFS), zwany wirtualnym systemem plików, który ma być używany przez system pamięci masowej jako globalny kontener pamięci masowej. VFS może składać się z wielu plików, które można przeglądać i edytować jako pojedynczy pojemnik do przechowywania.

VFS można przypisać do użytkownika, grupy użytkowników lub aplikacji i najlepiej wspierają one koncepcję wirtualizacji, ponieważ są wyposażone w przydziały i przydział uprawnień. Aby uzyskać dostęp do plików, klienci użyj kanału komunikacyjnego do interakcji ze standardowym serwerem NAS serwer.

W tym przypadku pliki klienta są przechowywane w wirtualnym systemie plików hostowanym na serwerze. Tutaj system operacyjny jest odpowiedzialny za przesyłanie informacji do magazynu i łączenie klientów z wirtualnym systemem plików.

Wirtualny system plików odgrywa kluczową rolę w eliminowaniu zależności od lokalizacji, dzięki czemu użytkownicy nie będą musieli borykać się z problemem awarii kanału komunikacyjnego lub utraty danych. Ułatwia także rekonfigurację i skalowanie, ponieważ dostęp do plików odbywa się bezpośrednio z fizycznego nośnika pamięci.

wirtualny serwer

Serwer wirtualny (VS) logicznie grupuje różne zasoby pamięci masowej w jeden serwer wirtualny, dzięki czemu użytkownicy w organizacji mogą uzyskać do niego dostęp. Zazwyczaj serwer wirtualny jest skonfigurowany z portami dostępu klienta, wirtualnym systemem plików i narzędziami administratora sieci. Serwery wirtualne mogą łączyć kilka serwerów fizycznych zlokalizowanych geograficznie w różnych regionach. W tym przypadku serwer wirtualny udostępnia klientom zasoby pamięci masowej w sposób hybrydowy.

Serwery wirtualne zwiększają bezpieczeństwo i upraszczają zarządzanie poprzez logiczny podział i izolację użytkowników na współdzielone i oddzielne grupy. W tym celu każdy serwer wirtualny udostępnia grupom roboczym zestaw portów sieciowych i wirtualnych systemów plików.

W tym trybie akceptowane są tylko żądania wysyłane przez porty skonfigurowane na serwerze wirtualnym i przekazywane do systemów VFS przechowywanych na serwerze wirtualnym. Należy pamiętać, że użytkownicy widzą tylko pliki VFS powiązane z serwerem wirtualnym.

Interfejs wirtualny

Interfejs wirtualny zapewnia klientowi dostęp do serwera wirtualnego, zatem interfejs wirtualny jest mapowany na interfejs fizyczny na serwerze. Następnie interfejs wirtualny jest przypisywany do konkretnego użytkownika lub grupy użytkowników. Co ciekawe, użytkownicy końcowi nie wiedzą o istnieniu wirtualnych serwerów czy wirtualnych interfejsów. Zazwyczaj serwer wirtualny może mieć jeden lub więcej dedykowanych interfejsów wirtualnych.

Wirtualny NAS rozwiązanie odpowiednie dla firm i grup roboczych Jedno z najskuteczniejszych rozwiązań w pozyskiwaniu wirtualny NASOprogramowanie QuTScloud to wirtualne narzędzie oparte na systemie operacyjnym QTS firmy QNAP. Firmy, które muszą rozszerzać zasoby, poszukują elastyczności i korzystać z produktów QNAP, mogą używać QuTScloud do wdrażania danych biznesowych i zarządzania nimi w chmurach publicznych i środowiskach wirtualizacyjnych.

Istotną zaletą powyższego oprogramowania jest to, że umożliwia szybszy transfer danych pomiędzy chmurami, a zarządzanie zbiornikami chmurowymi odbywa się w sposób scentralizowany i prosty. Powyższe oprogramowanie obsługuje protokoły SMB, FTP, AFP, NFS i WebDAV w celu łączenia się z bramami pamięci masowej w chmurze, uzyskiwania dostępu do chmury i wirtualnej przestrzeni dyskowej oraz udostępniania danych.

QuTScloud obsługuje standardowe protokoły, takie jak CIFS/SMB, NFS, AFP i iSCSI, aby uzyskać dostęp do chmury NAS QuTScloud. Ponadto File Station udostępnia internetowy pulpit nawigacyjny do zarządzania plikami i udostępniania ich.

Korzyści z wdrożenia wirtualnego NAS korzystając z QuTScloud, należy wspomnieć o następujących kwestiach:

  • Optymalne wykorzystanie zasobów: Administratorzy sieci mogą uruchamiać maszyny wirtualne QuTScloud na prywatnych serwerach korporacyjnych w celu optymalizacji zasobów systemowych.
  • Elastyczność i oszczędność kosztów: QuTScloud upraszcza dostęp do usług QTS i NAS funkcje użytkowe.
  • Bramy do przechowywania w chmurze: QuTScloud zapewnia możliwości organizacjom poszukującym rozwiązań w chmurze prywatnej i hybrydowej.

Bezpłatne pobieranie motywów WordPressBezpłatne pobieranie motywów WordPressPobierz motywy WordPress za darmoPobierz bezpłatne motywy WordPress PremiumZG93bmxvYWQgbHluZGEgY291cnNlIGZyZWU=pobierz oprogramowanie karbonnPobierz zerowe motywy WordPresspłatny kurs udemy do pobrania za darmo