Dane firmy

Siedziba firmy

System-IT 
ul. Rzemieślnicza 8
71-344 Szczecin


Dział techniczny

Tel: +48 91 886 17 59
Tel: +48 513 088 553
serwis@system-it.pl


Biuro i Dział handlowy

Tel: +48 91 886 17 73
Fax: +48 91 886 17 83    

emilia.szczesna@system-it.pl


Dział security

Tel: + 48 91 886 17 59
Tel: + 48 51 207 93 65

jarek.sobieszek@system-it.pl

Szanowni Państwo,

Z przyjemnością informujemy, że jako jedyni w Polsce uzyskaliśmy status partnera Platinum firmy Extreme Networks. Z tej okazji chcielibyśmy serdecznie podziękować naszym klientom i producentowi za zaufanie dla naszego profesjonalizmu i życzyć nam wszystkim dalszej owocnej współpracy.

Badanie firmy Veeam Software noszące nazwę „Dostępność IT w polskich przedsiębiorstwach” pokazało, że ponad połowa organizacji w Polsce zmaga się z przystosowaniem firmowej infrastruktury do wymogów nowoczesnego biznesu działającego bez przerw.

Uczestnicy badania (które objęło 50 decydentów ds. informatyki ze średnich i dużych polskich przedsiębiorstw) reprezentowali wszystkie kluczowe sektory gospodarki. Projekt realizowany był w marcu 2017 roku.

Badanie wykazało, że niemal 60 proc. kierujących działami IT przyznaje, że pracę ich przedsiębiorstwa zakłóca tzw. „deficyt dostępności”, oznaczający niezdolność do zaspokojenia potrzeb użytkowników związaną z ograniczonymi możliwościami skutecznego odtworzenia danych i aplikacji po awarii.

Jedynie 56 proc. ankietowanych jest pewnych, że ich aktualne rozwiązanie informatyczne potrafi przywrócić do działania zwirtualizowaną infrastrukturę IT w czasie określonym przez umowę o gwarantowanym poziomie świadczenia usług (SLA).

Tak wysoki poziom niepewności wśród zarządzających działami IT ma swoje uzasadnienie. Wynika on z faktu, że ponad połowa prób odzyskania danych trwa zbyt długo (43 proc.) lub skutkuje odzyskaniem niekompletnych informacji (41 proc.). Przeciętny czas przestojów IT w firmach i instytucjach w Polsce wynosi 29 minut.

Długość przestoju aplikacji krytycznych, którą są w stanie tolerować rodzimi dyrektorzy IT, wynosi średnio jedynie 12 minut. Co ciekawe, w przypadku pozostałych aplikacji menedżerowie ds. IT są gotowi zaakceptować przestoje trwające średnio 283 minuty, czyli ponad 4,5 godziny.

„Z naszego badania wyłania się dość niepokojący obraz. IT w działających w Polsce organizacjach w dalszym ciągu funkcjonuje w oderwaniu od potrzeb biznesowych. Przedsiębiorstwa w ponad połowie przypadków nie potrafią odtworzyć danych lub usług w czasie określonym umowami SLA lub zgodnie z docelowym punktem przywracania danych”, mówi powiedział Andrzej Niziołek, starszy menedżer regionalny Veeam Software w północnej i południowej części Europy Wschodniej.

I dodaje, „ W dodatku istnieje zaskakująco duża tolerancja w zakresie długotrwałości przestojów aplikacji, która wynosi blisko 5 godzin. Wdrażając strategiczne inicjatywy z obszaru transformacji cyfrowej, wydawałoby się, że tego typu zdarzenia nie mogą mieć miejsca, a działy IT powinny funkcjonować jako wewnętrzny usługodawca dla użytkowników biznesowych. Biorąc pod uwagę rosnące oczekiwania klientów i presję”.

Co piąty respondent uważa, że cloud computing zapewnia znacząco lub nieco wyższy poziom usług w stosunku do jakości usług oferowanych przez wewnętrzny dział IT. Jednocześnie aż 57 proc. respondentów uznaje, że chmura nie jest im niezbędna, ponieważ jakość świadczenia usług w obu modelach jest porównywalna.

Co ciekawe, średnio jedynie 11 proc. wszystkich aplikacji w badanych przedsiębiorstwach stanowią obecnie aplikacje chmurowe (działające na bazie infrastruktury w chmurze, np. w modelu Software as a Service). W ocenie ankietowanych menedżerów odsetek ten w ciągu dwóch najbliższych lat może zwiększyć się średnio do 23 proc.

Firma Fortinet opublikowała dokument noszący nazwę „Threat Report Q2 2017” w którym alarmuje: aż 90% badanych przez nią przedsiębiorstw ma luki w zabezpieczeniach infrastruktury IT od trzech lat lub dłużej.

Zgodnie z wynikami analizy Fortinetu 60% zaproszonych do badania firm systematycznie notowało ataki z wykorzystaniem pakietów złośliwego oprogramowania samodzielnie poszukujących luk w zabezpieczeniach (tzw. exploity).

Co ciekawe, do tych zdarzeń dochodziło nawet dziesięć lat po wykryciu słabych punktów w systemach tych firm. Stanowi to dowód niesłabnącej popularności tej metody wśród cyberprzestępców, a także potwierdza potrzebę regularnego testowania odporności firmowej infrastruktury teleinformatycznej na ataki i eliminowania wykrywanych podatności przez niezwłoczne wdrażanie odpowiednich zabezpieczeń.

Tylko w drugim kwartale bieżącego roku eksperci Fortinet wykryli łącznie 184 miliardy ataków przy użyciu exploitów, natomiast dziennie crackerzy wysyłali ich w sieć średnio 1,8 miliarda. Oczywiście korzystali także z innych metod nieuprawnionego dostępu do cyfrowych zasobów i kradzieży wrażliwych informacji, jednak proporcjonalnie stanowiły one margines. Mowa tutaj o malware, przy pomocy którego w opisywanym okresie dokonano 62 miliony ataków (ponad 670 tys. dziennie), i botnetach, których w tym samym czasie wykryto 2,9 miliarda.

Oprogramowanie samodzielnie szukające luk w firmowej infrastrukturze IT to broń, którą szczególnie upodobali sobie cyberprzestępcy. Trudno się temu dziwić, biorąc pod uwagę fakt, że nadal bardzo duża część przedsiębiorstw nie jest świadoma zagrożeń, jakie niosą ze sobą niezabezpieczone odpowiednio i najczęściej nieaktualizowane na bieżąco elementy środowiska informatycznego. A dla crackerów stanowią one otwarte furtki do firmowych zasobów, także tych, których utrata może się wiązać z wymiernymi stratami finansowymi.

Chodzi tu zwłaszcza o wyciek wrażliwych danych, czyli poufnych informacji jak np. dane osobowe, medyczne i finansowe, ale także o kradzież zastrzeżonej własności intelektualnej. Obecnie właściwie każda firma przetwarza jakieś rodzaje wrażliwych danych. Jeśli więc dba o swój wizerunek, finanse i swoich klientów, powinna co jakiś czas wykonywać tzw. kontrolowane włamania, czyli testy penetracyjne ujawniające słabe punkty wymagające natychmiastowej naprawy, a następnie wdrażać zalecane zabezpieczenia.

W Q2 ubiegłego roku blisko 40% badanych firm doświadczyło ataków przy użyciu oprogramowania typu exploit, skutkujących najpoważniejszymi konsekwencjami, określanymi przez autorów raportu jako „critical”. W zakresie tzw. wysokich szkód („high”) ofiarą ich padło ponad 10%, średnich („medium”) ok. 5%, a niskich („low”) – 4%. Natomiast w drugim kwartale tego roku krytyczne ataki zgłosiło ponad 60% przedsiębiorstw, średnie – 35%, wysokie – blisko 10%, a niski poziom szkód całkowicie zniknął z legendy.

Informatycy z firmy Google opracowali algorytm, dzięki któremu oprogramowanie TCP (podstawowy internetowy protokół zarządzający transmisją danych) pracuje o 14% szybciej od standardowego protokołu tego typu.

Twórcy algorytmu nadali mu nazwę “Bottleneck Bandwidth and Roundtrip” (w skrócie BBR). Bada on ruch w sieci i w przypadku wystąpienia zatorów lub nadmiernych opóźnień jest w stanie wybrać optymalną ścieżkę, przez którą dane dotrą najszybciej do kolejnego routera, który obsłuży transmitowany aktualnie pakiet.

Google stosuje już algorytm BBR w niektórych swoich rozwiązaniach, takich jak np. usługa YouTube (został on ostatnio wprowadzony do platformy Google Cloud Platform). Firma twierdzi, że dzięki wdrożeniu algorytmu BBR dane wideo obsługiwane przez usługę YouTube są transmitowane przeciętnie o 4% szybciej, a w przypadku niektórych krajów nawet o 14% szybciej.

Algorytm opracowany przez Google jest ważnym dokonaniem biorąc pod uwagę fakt, że 90% całego ruchu IP transmitowanego przez internet jest obsługiwane przez protokół TCP.

Z problem tym zmierzyli się wcześniej informatycy z North Carolina State University, którzy zaprojektowali wiele lat temu jeden z najpopularniejszych obecnie algorytmów zwiększających wydajność protokołu TCP. Chodzi o rozwiązanie znane pod skrótem CUBIC.

Krajowy rynek kolokacji w ubiegłym roku zamknął się kwotą bliską 500 mln zł. Porównując rok do roku oznacza to ponad 9 procentowy wzrost.

Zgodnie z prognozami firmy analitycznej PMR zainteresowanie przedsiębiorstw lokowaniem swoich danych u operatorów data center nie osłabnie, a największego wzrostu zainteresowania powinniśmy spodziewać się już w przyszłym roku. Wówczas wartość rynku wzrośnie aż o 12,5%.

Do 2022 r. polski rynek usług kolokacji ma być wart blisko 900 mln zł i rosnąć w średnim tempie 10,9% r/r. Oznacza to podwojenie jego wartości w perspektywie 6 lat. Nadal głównym odbiorcą usług będą firmy z sektora finansowego, telekomunikacyjnego, IT, mediów i e-commerce.

Z analizy firmy Atmana przeprowadzonej we współpracy z Audytelem wynika, że różnice w kosztach między kolokacją a budową własnej serwerowni od podstaw sięgają nawet blisko 50 mln złotych na korzyść kolokacji i outsourcingu IT. Co więcej, w żadnym ze scenariuszy opisanych przez autorów raportu oszczędności nie wyniosły mniej niż 17 mln zł.

„To efekt niższych kosztów energii elektrycznej, eksploatacji sprzętu i utrzymania personelu technicznego. Całkowity koszt budowy i eksploatacji centrum danych w dziesięcioletnim przedziale czasowym wynosi około 46 mln zł. Dla porównania, usługa kolokacji dla 40 szaf wraz z zasilaniem, świadczona w tym samym okresie, stanowi wydatek mniejszy niż 16 mln zł, czyli o 30 mln zł mniej niż w przypadku własnego ośrodka”, tłumaczy Robert Mikołajski z firmy Atman.

Analitycy PMR informują także, że w ostatnich latach mianem fenomenu można określić inwestycje w centra danych w parkach technologicznych. Finansowane w dużej mierze przez fundusze unijne obiekty powstawały i nadal powstają w wielu częściach kraju, nie pozostając bez wpływu na przyrost wolumenu powierzchni serwerowej w Polsce.

Jak wskazuje PMR, widocznym efektem rosnącego popytu na kolokację będzie wzrost powierzchni ośrodków data center. O ile w 2016 r. powierzchnia brutto komercyjnych obiektów świadczących usługi hostingu i kolokacji wynosiła ponad 125 tys. mkw., o tyle w 2022 r. wyniesie już ponad 180 tys. mkw.