Co się dzieje w internecie przez sekundę?

​Zastanawialiście się kiedyś, co dzieje się w internecie w ciągu sekundy? My już wiemy. W ciągu sekundy internauci pobierają ponad 800 aplikacji, przeprowadzają 1885 rozmów na Skype, wrzucają 2760 zdjęć na Instagrama oraz 10 205 tweetów na Twittera. Dokonają również ponad 108 tys. odsłon na YouTube i 51 tys. razy wyszukają czegoś w Google. W sekundę w dzisiejszym internecie przepływa tyle danych, ile liczyła cała globalna Sieć jeszcze 20 lat temu. Internet pęka w szwach od nadmiaru cyfrowych informacji.

Potop 2.0

Internet rozrasta się w tempie, którego nikt nie jest już w stanie kontrolować. Dlatego nie powinno nikogo dziwić, że to właśnie kategoria zawrotnej prędkości (ang. Velocity), z jaką produkujemy dane, stała się jednym z "czterech V", składających się na definicję Big Data, czyli wielkich zbiorów danych, które budują dzisiejszy Internet. Pozostałe "V" to: Volume - czyli ogromna ilość wytwarzanych danych, Variety - czyli ich różnorodność oraz Veracity - czyli wiarygodność danych.

- W ciągu sekundy globalna Sieć powiększa się o około 30 GB danych. Mniej więcej tyle "ważył" cały Internet 20 lat temu. To pokazuje szalone tempo, w jakim rozwija się dzisiaj Big Data: dzisiejszy Internet powiększa się średnio o 40 proc. nowych danych w skali roku. W tym roku po raz pierwszy w historii przekroczy próg 10 Zettabajtów. IDC prognozuje, że do końca 2018 roku przepływ danych zewnętrznych w przedsiębiorstwach wzrośnie aż pięciokrotnie, zaś liderzy cyfrowej transformacji zwiększą ilość danych wychodzących co najmniej 500-krotnie. To już nie tyle Big Data, co Huge Data. W czasach, gdy Internet jeszcze raczkował, raptem 6 proc. materiałów światowej kultury było zdigitalizowanych. Dziś cyfryzacja wkracza w zasadzie w każdy element naszej kultury. W ciągu kwadransa Internet rozrasta się średnio o 20 biliardów bitów danych. Analogową równowartością tej liczby byłyby wszystkie dzieła składające się na kanon literatury światowej. Bez cienia przesady możemy więc określić nasze czasy mianem "epoki danych" czy cyfrowego potopu -  wyjaśnił Piotr Prajsnar, CEO Cloud Technologies, największej hurtowni anonimowych danych o zachowaniach i zainteresowaniach internautów w tej części Europy.

Reklama

Papierkiem lakmusowym może być w tym przypadku wzrost liczby domen internetowych. Szacuje się, że w sieci zarejestrowanych jest obecnie już ponad 296 mln domen. Rodzima "peelka" plasuje się na dosyć wysokiej, bo 8 pozycji w Europie oraz 12 na świecie. Co ciekawe, Polska zajmuje aktualnie 3. miejsce pod względem dynamiki przyrostu nowych rejestracji. Obecnie liczba zarejestrowanych domen ".pl" przekroczyła już 2,6 mln.

Internet wrzuca piąty bieg

Jak szybko informacja obiega dziś internet? Innymi słowy: z jaką prędkością Big Data rozmnaża się w sieci?

- W ciągu doby dociera do nas potencjalnie tyle treści, ile nasi dziadkowie konsumowali średnio przez całe swoje życie. Myliłby się jednak ten, kto przymiotnik "Big" w Big Data utożsamiałby wyłącznie z gigantyczną ilością danych. Oznacza on przede wszystkim to, co możemy z tymi danymi realnie zrobić. A dzięki zaawansowanej analityce internetowej możemy zdziałać już naprawdę dużo. Najbardziej powszechnym przykładem jest chyba wykorzystanie danych w reklamie internetowej. Dane pozwalają "posprzątać Internet" z reklamowego śmietnika. Obecnie internaucie wyświetla się średnio 1 707 masowych bannerów reklamowych w ciągu miesiąca. Z reguły nie zapamiętuje on żadnego z nich. Powód? Reklama kierowana do wszystkich - to reklama kierowana do nikogo. Marketingowcy stosujący dane w swoich kampaniach nie mają tego problemu, ponieważ wiedzą, jaką reklamę i jakiemu użytkownikowi mogą wyświetlić - powiedział Łukasz Kapuśniak, Chief Technology Officer Cloud Technologies.

Analityka danych nie ogranicza się jednak wyłącznie do posprzątania naszej przeglądarki z reklamowego spamu. Aktualnie na znaczeniu zyskuje tzw. podejście Data Driven Business, które właściwe staje się nową koncepcją zarządzania biznesem, możliwą właśnie dzięki ogromnym ilościom danych płynących z sieci. Firmy zaczynają rozumieć, że aby lepiej poznać swoich klientów oraz konkurencję i szybciej reagować na zmiany rynkowe muszą korzystać z danych, które w każdej sekundzie dostarcza im Internet. Wystarczy spojrzeć na polski rynek e-commerce, na którym robi się coraz bardziej tłoczno, a według prognoz do końca 2016 roku ma on urosnąć o kolejne 7 proc. i przekroczyć liczbę 23,5 tys. podmiotów. W takich warunkach zarówno producenci, dystrybutorzy, jak i sprzedawcy muszą dysponować informacjami na  temat aktualnej sytuacji na rynku i działań konkurencji, a te jak wiadomo w kanale online zmieniają się szczególnie szybko. Ceny są tego najlepszym przykładem, a tacy giganci jak Amazon potrafią zmieniać je kilkakrotnie w ciągu dnia. Dla firm kluczowe jest więc bieżące pozyskiwanie sprawdzonych danych. Dlaczego? Ponieważ na ich podstawie są w stanie kształtować swoje ceny, a tym samym określać swoją pozycję rynkową względem konkurencji.

- Wiele firm wciąż ustala strategię cenową w oparciu o intuicję i dotychczasowe doświadczenia, nie mając świadomości, jak dużo na tym traci. W e-commerce liczy się jednak czas. Ceny zmieniają się tak szybko, że ich "ręczne" sprawdzanie nie ma żadnego sensu - nie dość, że jest kosztowne, to jeszcze obarczone ryzykiem pojawienia się wielu błędów. Człowiek nie jest też w stanie wyciągnąć pewnych prawidłowości w taki sposób, w jaki potrafi zrobić to maszyna, przetwarzając informacje z wielu różnych źródeł i w pewnym sensie ucząc się zależności, jakie zachodzą w badanym obszarze danych - wyjaśnił Jakub Kot, CEO Dealavo, spółki dostarczającej narzędzie klasy BI do monitoringu cen online.

Przyspieszeniu (nad)produkcji danych w sieci towarzyszy również zwiększenie szybkości transferu danych. Według raportu Akamai Technologies "Global Average Connection Speeds and Global Broadband Connectivity", prędkość sieci w drugim kwartale 2015 roku wzrosła globalnie o 3,5 proc, do poziomu 5,1 Mb/s. Na 144 badane państwa aż w 110 krajach zanotowano zwiększenie przepustowości łączy. Wzrost wahał się od 0,4 proc. (w Senegalu, gdzie średnia prędkość internetu osiągnęła poziom 1,5 Mb/s) do 67 proc. w Tunezji, gdzie przepustowość wyniosła 2,8 Mb/s. Dla porównania polski Internet może pochwalić się średnią prędkością sięgającą 7,6 Mb/s. Dla biznesu oprócz przyrostu danych w sieci kluczowa jest również ich dynamika.

Płuca internetu

O tym jak szybko rośnie internet i wolumen danych, świadczy rozwój centrów danych, pełniących funkcję płuc gigantycznej maszynerii cyfrowego świata. Według prognoz IDC do 2017 roku na całym świecie będzie ponad 8,6 mln ośrodków data center. PMR Research w raporcie "Rynek centrów danych w Polsce 2015" szacuje, że każdego roku światowa powierzchnia w centrach danych powiększa się o 4 do 7 tysięcy m2. Polski internet może zaczerpnąć najgłębszy oddech dzięki centrom danych warszawskiego ATM: zajmują one 13 600 m2. powierzchni, wypełniając tym samym blisko 12,2 proc. polskiego rynku centrów danych. To największe płuco Internetu w Polsce i jedno z największych w tej części Europy.

- Na początku lat 90. przepustowość łączy polskiego internetu sięgała raptem 9600 bitów na sekundę. Obecnie, dzięki zrealizowanym w ostatnich latach inwestycjom, informacja przesłana przez internet pokonuje drogę pomiędzy Warszawą a dowolnym innym miastem w Polsce w zaledwie 2,5 milisekundy. W ciągu 5-10 milisekund dociera do innego kraju w Europie, a na pokonanie drogi do miasta położonego na wschodnim wybrzeżu Stanów Zjednoczonych potrzebuje 70-90 milisekund. Można powiedzieć, że dziś internet jest jak szybkonogi Achilles. Niedawno Duński Uniwersytet Techniczny (DTU) osiągnął prędkość aż 43 terabitów na sekundę. Dzięki takiej prędkości ściągnięcie pliku o wielkości 1 GB zajęłoby zaledwie 0,2 milisekundy - wytłumaczyła Ewelina Hryszkiewicz z ATM, operatora ogólnopolskiej sieci światłowodowej ATMAN i pierwszej firmy w Polsce, która wpięła się do sieci.

Z internetowego boomu danych korzysta dziś coraz więcej firm. Rozbudowują one własne systemy CRM oraz ERP, integrując je z zewnętrznymi hurtowniami danych, czyli Data Management Platform (DMP). Danych w sieci jest tak dużo, są tak rozdrobnione i rozprzestrzeniają się z taką prędkością, że żaden wewnętrzny system klasy BI w firmie nie poradzi sobie z ich przetworzeniem i zmonetyzowaniem. Rozwiązaniem stają się wówczas platformy DMP, które uzupełniają systemy CRM i ERP, działając jako repozytoria i agregatory danych o internautach, przetwarzając je z różnych źródeł. Dzięki nim bank czy firma uzyskują 360-stopniowy obraz swojego klienta w ciągu kilku chwil i wiedzą, jaką ofertą mogą mu zaproponować. Platformy DMP jako jedyne są dziś w stanie poradzić sobie z zarządzaniem danymi w tym chaotycznym środowisku, jakim jest internet. Już teraz, jak twierdzi IDC 70 proc. dużych firm korzysta z danych o użytkownikach gromadzonych i przetwarzanych przez zewnętrzne hurtownie danych. Do końca 2019 roku tym tropem mają pójść już wszystkie duże organizacje.

Według badań przeprowadzonych przez Intel w Europie z analityki danych korzysta średnio co czwarte przedsiębiorstwo (25 proc.) w Polsce takie rozwiązania wykorzystuje jednak raptem 18 proc. firm. Z badań przeprowadzonych na zlecenie Intel wynika, że pod tym względem plasujemy się za Czechami, Słowacją oraz Węgrami. Jeśli jednak wierzyć zapewnieniom przedsiębiorców z polskiego rynku średnią europejską osiągniemy już w tym roku, ponieważ kolejne 6,7 proc. ankietowanych firm planuje wdrożenie takich rozwiązań do końca 2015 roku.

Kto tworzy Big Data?

To, że co sekundę internet ugina się od ciężaru Big Data, potwierdzają firmy analityczne. Oracle szacuje obecne rozmiary sieci na ponad 8 ZB (Zettabajtów), jednak już w 2020 roku Internet będzie "ważył" przynajmniej 45 ZB. IDC przelicza, że na każdego mieszkańca Ziemi przypadnie tym samym ponad 5 GB danych.

- Gros danych generowanych w sieci wcale nie pochodzi od ludzi. Często jest dziełem botów bądź programów. To zjawisko określa się jako "Dirty Data", czyli dosłownie "brudne dane". Szacuje się, że już teraz od 50 do nawet 80 proc. czasu, jaki badacze danych spędzają w firmach nad analizą Big Data, pochłania oczyszczanie danych. Jednym z zadań platformy DMP jest te dane przesiać, przetworzyć, uporządkować i posegmentować, oddzielając dane o rzeczywistej wartości od tych, które są tylko cyfrowym bełkotem - powiedział Piotr Prajsnar.

Z równie imponującą prędkością, co ilość danych w Sieci, rośnie dziś wartość rynku Big Data. IDC szacuje, że globalny rynek analityki danych rośnie dziś w tempie sześciokrotnie szybszym niż cała branża IT. Grand View Research twierdzi, że do 2022 roku będzie wart już ponad 72,38 mld dol.

Internet nie zwalnia tempa, a produkcja Big Data przyspiesza z roku na rok. To oznacza, że przed branżą analityczną stoją prawdziwe wyzwania. Analitycy danych już teraz robią co mogą, aby odkodować chaotyczne, cyfrowe hieroglify i przetłumaczyć je na informacje wartościowe dla biznesu oraz konsumenta. Jednak, jak szacuje, obecnie udaje nam się spożytkować raptem 20 proc. całego wolumenu Big Data. Do 2020 roku będziemy już w stanie sensownie wykorzystać 30 proc. danych wygenerowanych w Sieci.  
Jeśli komuś wydaje się, że to wciąż mało, to powinien pamiętać, że po przeczytaniu tego tekstu Internet nie jest już taki sam jak przedtem. Upłynęło przecież kilkaset sekund. A to oznacza, że na głowę badaczom danych spadło kilka biliardów bitów, które domagają się analizy.

INTERIA.PL/informacje prasowe
Dowiedz się więcej na temat: Internet | Big Data
Reklama
Reklama
Reklama
Reklama
Reklama
Strona główna INTERIA.PL
Polecamy