Sztuczna inteligencja wykrywa zagrożenia 60 razy szybciej niż człowiek. W wyniku pandemii algorytmy coraz częściej zabezpieczać będą także prywatne komputery

Najskuteczniejsze rozwiązania z zakresu cyberbezpieczeństwa są wspierane przez sztuczną inteligencję. Dzięki algorytmom są w stanie wykryć zagrożenia w zaledwie kilka sekund – kilkadziesiąt razy szybciej, niż zrobiłby to człowiek. Czynnik ludzki jest też uznawany za największą lukę wykorzystywaną przez hakerów. Problem uwydatnił się w wyniku przemodelowania dużej części gospodarki na pracę zdalną. W jej wyniku aż 70 proc. firm poniosło straty związane z naruszeniami ochrony danych. Jak przewidują eksperci, sytuacja pandemiczna wpłynie na wdrożenie w prywatnych komputerach zabezpieczeń dotychczas instalowanych w sprzęcie firmowym.– Moduły sztucznej inteligencji polegają na analizie danych, na oddzieleniu zachowań bezpiecznych od zachowań niebezpiecznych i niestandardowych. Innymi słowy, każde zachowanie, które może być uznane za niebezpieczne i może być wykryte przez człowieka, może być również wykryte przez algorytm sztucznej inteligencji na podstawie tych samych danych. Algorytm jednak zrobi to znacznie szybciej – przekonuje w rozmowie z agencją informacyjną Newseria Innowacje Sebastian Stefanowski, dyrektor Działu Practice w Inetum Polska.Sztuczna inteligencja jest zdolna do przetwarzania miliardów rekordów danych, pochodzących zarówno z baz, jak i źródeł nieustrukturyzowanych, jak np. blogi. SI uczy się rozpoznawania zagrożeń poprzez uczenie maszynowe. Gromadzi informacje, a potem określa profil zagrożeń, występujących na przykład w szkodliwych plikach czy podejrzanych adresach IP. W efekcie wykrywa zagrożenia nawet 60-krotnie szybciej niż człowiek – analiza trwa zaledwie kilka sekund.– Podstawą dobrego algorytmu sztucznej inteligencji są dane. Zbieranie danych bardzo często kojarzy się z utratą prywatności i postrzegane jest jako pewne niebezpieczeństwo. Dane można jednak zbierać w sposób anonimowy. Trzeba mieć również świadomość tego, że zyski z zabezpieczeń opartych na sztucznej inteligencji mogą znacznie przewyższać koszty związane z ryzykiem utraty danych. Każdy zgodziłby się udzielić danych na temat swoich zachowań na przykład bankowi – po to, żeby zabezpieczyć w ten sposób swoje konto – wskazuje Sebastian Stefanowski.Algorytmy SI stanowią podstawę działania platformy SafeGuard Cyber, która zapewnia ochronę przed atakami m.in. w social media oraz w cyfrowych kanałach B2B. Platforma samodzielnie wykrywa przychodzące szkodliwe pliki i zabezpiecza wrażliwe dane przed nieautoryzowanym udostępnieniem. Z rozwiązania korzysta m. in. koncern kosmetyczny Johnson & Johnson, farmaceutyczni giganci, tacy jak Novartis i Abbott, a także amerykański Bank of Tampa.– Większość przedsiębiorstw korzysta już z modułów sztucznej inteligencji. Tak naprawdę zależy to od poziomu dojrzałości firmy. Poziom podstawowy to są po prostu filtry, np. antyspamowe czy wykrywające podejrzane załączniki w poczcie informatycznej. Następnym poziomem są różnego rodzaju moduły analizy ruchu sieciowego. Prym w takich technikach wiodą dostawcy chmur. Prawie każdy z nich ma już gotowe rozwiązania, które mogą wykrywać i alarmować o niestandardowych i niebezpiecznych zachowaniach, i może je udostępniać swoim klientom,  Najwyższym poziomem jest analiza zachowań użytkowników w aplikacjach – wymienia dyrektor Działu Practice w Inetum Polska.Sztuczna inteligencja wykorzystywana jest jednak nie tylko do projektowania zabezpieczeń, lecz także przy przygotowywaniu ataków cybernetycznych. Może być używana na przykład do ciągłego monitorowania sieci w celu wykrywania nowych luk, które mogą potem wykorzystać hakerzy. SI używana jest także do manipulowania danymi, a także do przeprowadzania ataków socjotechnicznych.– To nieustanny wyścig zbrojeń. Obie strony – i strona zabezpieczająca, i strona, która atakuje – korzystają z algorytmów sztucznej inteligencji. Fakt, że w pandemii nasiliła się liczba cyberataków, zmusi przedsiębiorstwa do inwestycji większych pieniędzy w systemy zabezpieczeń, co na pewno pociągnie za sobą rozwój tej branży, czyli rozwój systemów cyberbezpieczeństwa opartych na sztucznej inteligencji – przewiduje Sebastian Stefanowski.Z „Raportu z badania kosztów naruszeń ochrony danych” wynika, że średni koszt łączny wynikający z tych naruszeń wynosi 3,86 mln dol. Branżą najbardziej dotkniętą atakami była ochrona zdrowia. Co ciekawe, w raporcie z poprzedniego roku koszt był nieco wyższy i wyniósł 3,92 mln dol. Jak jednak zaznaczają autorzy raportu, spadek ten jest tylko teoretyczny. Raport uwydatnia problem pogłębiających się różnic między kosztami naruszeń ponoszonymi przez organizacje inwestujące w bardziej zaawansowane procesy zabezpieczające, takie jak automatyzacja, a kosztami ponoszonymi przez firmy inwestujące w tańsze zabezpieczenia.Nie bez wpływu na sytuację pozostała pandemia koronawirusa. Z raportu IBM wynika, że w wyniku wdrożenia pracy zdalnej koszt naruszeń ochrony danych zwiększył się o 137 tys. dol. Zjawisko to zaobserwowało 70 proc. ankietowanych. 76 proc. zgłaszało, że w wyniku pracy zdalnej wydłużył się czas potrzebny na

Sztuczna inteligencja wykrywa zagrożenia 60 razy szybciej niż człowiek. W wyniku pandemii algorytmy coraz częściej zabezpieczać będą także prywatne komputery

Najskuteczniejsze rozwiązania z zakresu cyberbezpieczeństwa są wspierane przez sztuczną inteligencję. Dzięki algorytmom są w stanie wykryć zagrożenia w zaledwie kilka sekund – kilkadziesiąt razy szybciej, niż zrobiłby to człowiek. Czynnik ludzki jest też uznawany za największą lukę wykorzystywaną przez hakerów. Problem uwydatnił się w wyniku przemodelowania dużej części gospodarki na pracę zdalną. W jej wyniku aż 70 proc. firm poniosło straty związane z naruszeniami ochrony danych. Jak przewidują eksperci, sytuacja pandemiczna wpłynie na wdrożenie w prywatnych komputerach zabezpieczeń dotychczas instalowanych w sprzęcie firmowym.

– Moduły sztucznej inteligencji polegają na analizie danych, na oddzieleniu zachowań bezpiecznych od zachowań niebezpiecznych i niestandardowych. Innymi słowy, każde zachowanie, które może być uznane za niebezpieczne i może być wykryte przez człowieka, może być również wykryte przez algorytm sztucznej inteligencji na podstawie tych samych danych. Algorytm jednak zrobi to znacznie szybciej – przekonuje w rozmowie z agencją informacyjną Newseria Innowacje Sebastian Stefanowski, dyrektor Działu Practice w Inetum Polska.

Sztuczna inteligencja jest zdolna do przetwarzania miliardów rekordów danych, pochodzących zarówno z baz, jak i źródeł nieustrukturyzowanych, jak np. blogi. SI uczy się rozpoznawania zagrożeń poprzez uczenie maszynowe. Gromadzi informacje, a potem określa profil zagrożeń, występujących na przykład w szkodliwych plikach czy podejrzanych adresach IP. W efekcie wykrywa zagrożenia nawet 60-krotnie szybciej niż człowiek – analiza trwa zaledwie kilka sekund.

– Podstawą dobrego algorytmu sztucznej inteligencji są dane. Zbieranie danych bardzo często kojarzy się z utratą prywatności i postrzegane jest jako pewne niebezpieczeństwo. Dane można jednak zbierać w sposób anonimowy. Trzeba mieć również świadomość tego, że zyski z zabezpieczeń opartych na sztucznej inteligencji mogą znacznie przewyższać koszty związane z ryzykiem utraty danych. Każdy zgodziłby się udzielić danych na temat swoich zachowań na przykład bankowi – po to, żeby zabezpieczyć w ten sposób swoje konto – wskazuje Sebastian Stefanowski.

Algorytmy SI stanowią podstawę działania platformy SafeGuard Cyber, która zapewnia ochronę przed atakami m.in. w social media oraz w cyfrowych kanałach B2B. Platforma samodzielnie wykrywa przychodzące szkodliwe pliki i zabezpiecza wrażliwe dane przed nieautoryzowanym udostępnieniem. Z rozwiązania korzysta m. in. koncern kosmetyczny Johnson & Johnson, farmaceutyczni giganci, tacy jak Novartis i Abbott, a także amerykański Bank of Tampa.

– Większość przedsiębiorstw korzysta już z modułów sztucznej inteligencji. Tak naprawdę zależy to od poziomu dojrzałości firmy. Poziom podstawowy to są po prostu filtry, np. antyspamowe czy wykrywające podejrzane załączniki w poczcie informatycznej. Następnym poziomem są różnego rodzaju moduły analizy ruchu sieciowego. Prym w takich technikach wiodą dostawcy chmur. Prawie każdy z nich ma już gotowe rozwiązania, które mogą wykrywać i alarmować o niestandardowych i niebezpiecznych zachowaniach, i może je udostępniać swoim klientom,  Najwyższym poziomem jest analiza zachowań użytkowników w aplikacjach – wymienia dyrektor Działu Practice w Inetum Polska.

Sztuczna inteligencja wykorzystywana jest jednak nie tylko do projektowania zabezpieczeń, lecz także przy przygotowywaniu ataków cybernetycznych. Może być używana na przykład do ciągłego monitorowania sieci w celu wykrywania nowych luk, które mogą potem wykorzystać hakerzy. SI używana jest także do manipulowania danymi, a także do przeprowadzania ataków socjotechnicznych.

– To nieustanny wyścig zbrojeń. Obie strony – i strona zabezpieczająca, i strona, która atakuje – korzystają z algorytmów sztucznej inteligencji. Fakt, że w pandemii nasiliła się liczba cyberataków, zmusi przedsiębiorstwa do inwestycji większych pieniędzy w systemy zabezpieczeń, co na pewno pociągnie za sobą rozwój tej branży, czyli rozwój systemów cyberbezpieczeństwa opartych na sztucznej inteligencji – przewiduje Sebastian Stefanowski.

Z „Raportu z badania kosztów naruszeń ochrony danych” wynika, że średni koszt łączny wynikający z tych naruszeń wynosi 3,86 mln dol. Branżą najbardziej dotkniętą atakami była ochrona zdrowia. Co ciekawe, w raporcie z poprzedniego roku koszt był nieco wyższy i wyniósł 3,92 mln dol. Jak jednak zaznaczają autorzy raportu, spadek ten jest tylko teoretyczny. Raport uwydatnia problem pogłębiających się różnic między kosztami naruszeń ponoszonymi przez organizacje inwestujące w bardziej zaawansowane procesy zabezpieczające, takie jak automatyzacja, a kosztami ponoszonymi przez firmy inwestujące w tańsze zabezpieczenia.

Nie bez wpływu na sytuację pozostała pandemia koronawirusa. Z raportu IBM wynika, że w wyniku wdrożenia pracy zdalnej koszt naruszeń ochrony danych zwiększył się o 137 tys. dol. Zjawisko to zaobserwowało 70 proc. ankietowanych. 76 proc. zgłaszało, że w wyniku pracy zdalnej wydłużył się czas potrzebny na wykrycie i powstrzymanie potencjalnego zagrożenia.

– Konsekwencją tego, co zadziało się w roku 2020, będzie to, że środek ciężkości myślenia o zabezpieczeniach przesunie się z zabezpieczeń systemów komputerowych w sieciach firmowych na zabezpieczenia systemów komputerowych w sieciach prywatnych. Innymi słowy, te algorytmy sztucznej inteligencji, które są teraz dostępne jedynie dla dużych firm, staną się popularne i trafią jako zabezpieczenia dla normalnych komputerów prywatnych w domach prywatnych. Będzie to prosta konsekwencja tego, że większość z pracowników w niektórych branżach przestawiła się na pracę zdalną – wskazuje dyrektor Działu Practice w Inetum Polska.