Przez Techopedia Staff, 22 września 2016 r
Na wynos: Host Rebecca Jozwiak omawia najnowsze analizy z dr Robin Bloor, Dez Blanchfield i Shawn Rogers z Dell Statistica.
Obecnie nie jesteś zalogowany. Zaloguj się lub zarejestruj, aby zobaczyć wideo.
Rebecca Jozwiak: Panie i panowie, witam i witamy w Hot Technologies 2016. Dziś mamy „Edge Analytics: wreszcie ekonomia Internetu Rzeczy”. Nazywam się Rebecca Jozwiak. Będę twoim moderatorem dzisiejszego webcastu. Wpisujemy tweeta z hashtagiem # HOTTECH16, jeśli chcesz dołączyć do rozmowy na Twitterze.
IoT, zdecydowanie gorący temat w tym roku i internet rzeczy, tak naprawdę dotyczy danych maszynowych, danych czujników, danych dziennika, danych urządzeń. Żaden z nich nie jest nowy, mieliśmy ten typ danych na zawsze, ale to tak, że tak naprawdę nie byliśmy w stanie z nich korzystać, a teraz widzimy tylko mnóstwo nowych sposobów korzystania z tych danych. Zwłaszcza w branży medycznej, na rynkach finansowych, gdzie ropa i gaz, towary, to tylko bogactwo informacji, które wcześniej nie zostały wykorzystane. I niewiele osób naprawdę dobrze rozumie, jak to zrobić dobrze. Mówimy o wielu małych danych, ale jest to dużo danych i, wiesz, występują problemy z siecią, jest związany ze sprzętem lub musi być przetwarzany, i jak to zrobić bez zatykania systemu? O tym się dzisiaj dowiemy.
Oto nasza gama ekspertów. Mamy doktora Robina Bloora, naszego głównego analityka w The Bloor Group. Mamy także Deza Blanchfielda, naszego naukowca danych w The Bloor Group. Cieszymy się, że mamy Shawna Rogersa, dyrektora ds. Globalnego marketingu i kanałów w firmie Dell Statistica. I po tym podam piłkę Robin.
Dr Robin Bloor: Dobra, dziękuję za to. Naciskam przycisk i rzucam slajd. Nie mam pojęcia, dlaczego stworzyłem ten apokaliptyczny obraz do Internetu rzeczy. Być może dlatego, że myślę, że w końcu będzie chaotycznie. Przejdę od razu. Jest to równoznaczne z kursem każdej prezentacji IoT. W ten czy inny sposób musisz powiedzieć coś oburzającego o tym, dokąd to wszystko zmierza. I właściwie większość tego jest prawdopodobnie prawdą. Jeśli spojrzysz na sposób, w jaki krzywe te stopniowo się rozszerzają. Wiesz, komputery osobiste, smartfony i tablety prawdopodobnie będą nadal rosły. Telewizory inteligentne prawdopodobnie wzrosną. Urządzenia do noszenia, prawdopodobnie eksplodują teraz, w porównaniu do tego, czym były kilka lat temu. Połączone samochody, nieuniknione, że prawie wszystkie samochody będą połączone dokładnie szerokie i dokładnie przesyłają dane przez cały czas. I wszystko inne. Ten szczególny wykres BI Intelligence wskazuje, że wszystko inne bardzo szybko przeważy oczywiste rzeczy.
Co więc powiedzieć o IoT? Pierwszą rzeczą jest tylko punkt architektoniczny. Wiesz, kiedy masz dane i przetwarzasz je, w ten czy inny sposób, będziesz musiał połączyć je razem. A przy danych w woluminach jest teraz i gromadzą się w różnych miejscach, te dwa nie są już naturalnie razem. Sądzę, że były w dawnych czasach komputerów mainframe. Możesz więc pomyśleć o istnieniu warstwy przetwarzania, warstwy transportu i warstwy danych. W ten czy inny sposób warstwa transportowa będzie teraz przenosić przetwarzanie lub dane w sieci. Oto więc opcje: możesz przenieść dane do przetwarzania, możesz przenieść przetwarzanie do danych, możesz przenieść przetwarzanie i dane do dogodnego punktu wykonania lub możesz oddzielić przetwarzanie i oddzielić dane. A jeśli chodzi o Internet rzeczy, dane są już prawie dzielone od urodzenia, a prawdopodobieństwo jest, że okropna część przetwarzania zostanie odcięta, aby aplikacje, które trzeba uruchomić, mogły mieć miejsce.
Więc namalowałem obraz. Interesującą rzeczą dla IoT, mówię o domenie agregacji na tym diagramie i zwracam uwagę, że istnieją subdomeny. Możesz więc sobie wyobrazić, że domena IoT 1 tutaj jest jakimś samochodem, a domena 2 i domena 3 i domena 4 są samochodami pewnego rodzaju, i będziesz agregował dane lokalnie, uruchomisz lokalne aplikacje na tych danych, i wprowadzicie różne rzeczy w czyn. Ale aby mieć analitykę na temat wszystkich samochodów, będziesz musiał przenieść dane do centrum, niekoniecznie wszystkie dane, ale będziesz musiał agregować w centrum. A jeśli się nad tym zastanowić, być może warto mieć wiele, wiele różnych domen agregacji dla tego samego zestawu rzeczy związanych z Internetem przedmiotów. A same domeny mogą się dalej agregować. Więc możesz mieć tę powtarzającą się hierarchię. Zasadniczo mamy tam niezwykle złożoną sieć. Znacznie bardziej skomplikowane niż wszystko, co musieliśmy mieć wcześniej.
Na dole mam notatkę. Wszystkie węzły sieci, w tym węzły liści, mogą być twórcami danych, magazynami danych i punktami przetwarzania. A to daje możliwość dystrybucji, jakiej nie widzieliśmy wcześniej. Dez opowie o tym trochę więcej, więc przejdę do tego konkretnego punktu. Gdy znajdziemy się w Internecie rzeczy, a wszystkie dane faktycznie przekształciły się w zdarzenia, chodzi o ten slajd tylko po to, aby wskazać, że będziemy musieli ustandaryzować wydarzenia. Będziemy musieli przynajmniej to mieć. Będziemy mieć czas wystąpienia zdarzenia, jego lokalizację geograficzną, wirtualną lub logiczną lokalizację procesu, który go utworzył, urządzenie źródłowe, które je utworzyło, identyfikator urządzenia, abyś dokładnie wiedział, które urządzenie źródłowe to stworzyło, własność danych i aktorów, tych ludzi, którzy mają prawo do wykorzystywania danych w taki czy inny sposób, będzie musiał nosić przy sobie swoje uprawnienia, co oznacza, że tak naprawdę, będzie musiał zabezpieczyć je, a wtedy będzie same dane. A kiedy na to patrzysz, zdajesz sobie sprawę, że nawet jeśli masz czujnik, który nie robi nic więcej niż raportowanie temperatury czegoś co sekundę, w rzeczywistości jest całkiem sporo danych, aby dokładnie określić, gdzie dokładnie dane powstało i co to właściwie jest. Nawiasem mówiąc, nie jest to wyczerpująca lista.
Tak więc, jeśli chodzi o przyszły krajobraz IT, widzę to w ten sposób: że nie jest to tylko internet rzeczy, istnieje również fakt, że będziemy w świecie działań opartych na zdarzeniach, dlatego też będą musiały mieć architektury sterowane zdarzeniami, a te architektury będą musiały obejmować duże sieci. Inną rzeczą jest wszystko w czasie rzeczywistym, niekoniecznie jest tak, że jesteśmy w czasie rzeczywistym, ale jest coś, co nazywam czasem biznesowym, czyli czasem, w którym dane muszą zostać dostarczone i gotowe przetwarzane. To może nie być, wiesz, milisekunda po utworzeniu. Ale zawsze jest taki czas na każdy element danych, a kiedy masz już architekturę sterowaną zdarzeniami, bardziej sensowne staje się myślenie w kategoriach podejścia do sposobu działania świata w czasie rzeczywistym.
Więc sprowadzając to, bo tak naprawdę tak naprawdę mówimy o analizie Internetu Rzeczy. Pomimo tego wszystkiego wciąż jest czas na wgląd i nie jest to tylko czas na wgląd, po wglądu muszą nastąpić działania. Czas na wgląd i czas na działanie sprowadziłbym do tego. Powiedziawszy to, przekażę piłkę z powrotem do Deza.
Dez Blanchfield: Dziękuję Robin. Wnikliwy jak zawsze. Uwielbiam fakt, że trudno jest podążać za każdym razem, ale dam z siebie wszystko.
Jedna z rzeczy, które widzę i często mnie to bawi, szczerze mówiąc, nie w nieszczerej i negatywnej formie, ale istnieje wiele obaw i paniki na temat internetu rzeczy przejmujących świat i rozszczepiając nas, a zaczniesz tracić swoje dane, więc chcę rzucić okiem na niektóre z rzeczy, które zrobiliśmy wcześniej w ciągu ostatnich dwóch lub trzech dekad, które były bliskim faksem do Internetu rzeczy, ale może nie w tej samej skali. I tylko po to, aby pokazać sobie, że faktycznie tu byliśmy i rozwiązaliśmy niektóre problemy, nie na tym poziomie skali i nie przy tej prędkości. Ponieważ oznacza to, że możemy faktycznie rozwiązać problem i że wiemy, jakie są niektóre odpowiedzi; musimy po prostu skulić się i ponownie zastosować niektóre z naszych wcześniejszych wniosków. Wiem, że to jest cała rozmowa, którą właśnie przeprowadzimy, i mam całą gamę zabawnych rzeczy, o których mogę porozmawiać w sekcji pytań i odpowiedzi.
Ale kiedy myślimy o Internecie rzeczy w kręgu, istnieje duża centralizacja na poziomie projektowania, który został napisany w bardzo wczesnych dniach. Na przykład urządzenia Fitbit mają tendencję do przechodzenia do jednego centralnego miejsca i prawdopodobnie jest ono hostowane gdzieś na platformie chmurowej, a wszystkie dane z tych wszystkich urządzeń trafiają do tego samego, powiedzmy, frontonu stosu, w tym stron internetowych i aplikacje i usługi oparte na danych. Ale z czasem ta skala będzie wymagała przeprojektowania, aby poradzić sobie z ilością danych, które się do nich zbliżają, i przeprojektują je tak, aby istniało wiele interfejsów i wiele kopii stosu w wielu lokalizacjach i regionach. Widzimy to i podam kilka przykładów, które możemy omówić.
Kluczową kwestią jest to, że chociaż widzieliśmy niektóre z tych rozwiązań, które zamierzam omówić, skala i objętość danych oraz ruch sieciowy generowany przez internet rzeczy wymagają pilnej zmiany z centralnej moim zdaniem do rozproszonych architektur i wiemy o tym, ale niekoniecznie zrozumieliśmy jakie jest rozwiązanie. Kiedy myślimy o koncepcji tego, czym jest internet rzeczy, jest to model sieci na dużą skalę. Wiele rzeczy powoduje hałas. Rzeczy, które do niedawna nie hałasowały. I tak naprawdę myślę, że to było wczoraj, żartobliwie mówiłem o stosie, ale poszedłem kupić nowy toster i przyszedł on z opcją, która mogłaby mi powiedzieć różne rzeczy, w tym kiedy trzeba go wyczyścić. I nowa kuchenka mikrofalowa o bardzo podobnej funkcji, która może nawet pingować aplikację na telefonie, aby powiedzieć, że to, co właśnie podgrzewałem, zostało już wykonane. I jestem bardzo zdania, że jeśli jest kilka rzeczy, nie chcę ze mną rozmawiać, to moja lodówka, kuchenka mikrofalowa i tostery. Czuję się swobodnie, gdy są głupimi urządzeniami. Ale ostatnio mam nowy samochód, trochę Audi, i mówi do mnie i jestem z tego bardzo zadowolony, ponieważ rzeczy, o których mówi, są interesujące. Jak aktualizowanie map w czasie rzeczywistym, aby powiedzieć mi, gdzie jest lepsza droga do przejścia z punktu A do punktu B, ponieważ wykrywa on ruch przez różne mechanizmy z danymi, które są wysyłane.
Mam ten slajd. Widzieliśmy już, że modele sieciowe o dużej objętości wymagają przejścia z przechwytywania centralnego na rozproszone i dostarczania modeli przetwarzania i analizy danych. Widzieliśmy, jak rzeczy przenoszą się z trzech małych diagramów graficznych po prawej stronie, tam gdzie mamy, tego z lewej z trzech, jest scentralizowany model z wszystkimi małymi urządzeniami do centralnej lokalizacji i gromadzą dane, a skala nie jest tak świetna, radzą sobie tam dobrze. Pośrodku mamy nieco bardziej zdecentralizowany model oraz hub i mówił, i myślę, że tego będziemy potrzebować z Internetem rzeczy w następnej generacji. A potem po prawej stronie mamy tę w pełni rozproszoną i zamkniętą w sieć sieć, w której internet rzeczy i maszyna do maszyny zmierza w najbliższym czasie, ale nie jesteśmy całkiem tam z wielu powodów. I głównie dlatego, że do tej pory używamy platform internetowych do większości komunikacji i nie zbudowaliśmy jeszcze drugiej sieci do przenoszenia dużej ilości tych danych.
Istnieją już inne sieci, takie jak sieć Batelco. Wiele osób nie myśli o tym, że sieci telekomunikacyjne nie są internetem. Internet jest bardzo odrębną rzeczą na wiele sposobów. Przesyłają dane ze smartfonów przez sieci telefoniczne, a następnie ogólnie przez sieci telefoniczne i do Internetu, gdzie dzielą je na dwie sieci. Ale jest całkowicie możliwe i prawdopodobne, że internet przedmiotów będzie wymagał innej sieci. Mówimy ogólnie o przemysłowym Internecie, o którym teraz nie będziemy mówić szczegółowo, ale w zasadzie mówimy o innej sieci, która jest specjalnie zaprojektowana dla rodzajów transportu danych lub Internetu rzeczy i maszyn do maszyn Komunikacja.
Ale niektóre przykłady, w których chciałem się podzielić, gdzie widzieliśmy, że sieci o dużej przepustowości i rozproszone dane działają bardzo dobrze, to na przykład Internet. Internet został zaprojektowany i zaprojektowany od samego początku, aby przetrwać wojnę nuklearną. Jeśli część Stanów Zjednoczonych zostanie wysadzona w powietrze, Internet został zaprojektowany w taki sposób, aby dane mogły się przemieszczać w Internecie bez utraty pakietów z powodów, dla których nadal jesteśmy połączeni. I to istnieje do dziś w skali globalnej. Internet ma wiele możliwości związanych z pakietami redundancji i routingu. W rzeczywistości Internet jest kontrolowany przez coś o nazwie BGP, Border Gateway Protocol i Border Gateway Protocol, BGP, jest specjalnie zaprojektowany, aby poradzić sobie z awarią routera, przełącznika lub serwera. Gdy wysyłasz lub otrzymujesz wiadomość e-mail, jeśli wyślesz trzy wiadomości e-mail z rzędu, nie ma gwarancji, że każdy z tych e-maili podąży tą samą trasą do tego samego miejsca docelowego. Mogą poruszać się po różnych częściach Internetu z różnych powodów. Może istnieć awaria, mogą istnieć okna serwisowe, w których rzeczy do modernizacji są offline, mogą być po prostu zatory w sieci, i widzimy to w przypadku takich rzeczy, jak sieci ruchu samochodowego i transportu publicznego oraz statków i samolotów. Dostarczamy treści na nasze urządzenia, takie jak nasze laptopy, tablety i komputery, za pośrednictwem przeglądarek i tak dalej każdego dnia za pośrednictwem sieci dostarczania treści. Sieci dostarczania treści polegają na pobieraniu kopii treści z podstawowej platformy obsługującej, takich jak serwer sieciowy, i przenoszeniu ich kopii oraz niewielkiej ilości pamięci podręcznej na brzeg sieci i dostarczaniu jej tylko z najbliższej części krawędzi.
Antyspam i cyberbezpieczeństwo - jeśli zdarzenie spamowe ma miejsce w Kanadzie, a Microsoft je wykryje i zobaczy, że do grupy losowych osób wysyłanych jest wiele kopii tego samego e-maila, sumy kontrolne są pobierane, podpis dla tej wiadomości jest utworzony i umieszczony w sieci i natychmiast dystrybuowany. I tak, że e-mail nigdy nie dostaje się do mojej skrzynki odbiorczej, a jeśli tak, jest natychmiast oznaczany jako spam, ponieważ został wykryty gdzie indziej na skraju sieci. I tak inne części krawędzi sieci są informowane o sygnaturze tego spamu i jest on umieszczany w indeksie bazy danych, a jeśli te wiadomości zaczną pojawiać się po drugiej stronie planety, to je wykrywamy i wiemy, że to spam. To samo dotyczy cyberbezpieczeństwa. Hack, który ma miejsce po jednej stronie planety, jest wykrywany, rejestrowany i mapowany, a nagle w drugiej części sieci możemy z nim walczyć, zapisywać zasady i zasady oraz zmieniać, aby sprawdzić, czy możemy go zablokować. Zwłaszcza z nowym wpływem takich rzeczy jak odmowa usługi lub rozproszona odmowa usługi, w której tysiące maszyn są wykorzystywane do atakowania centralnej strony internetowej.
Bitcoin i blockchain są domyślnie, ze swej natury są rozproszoną księgą, blockchain i radzą sobie z wszelkimi awariami lub awariami w sieci. Wykrywanie i zapobieganie oszustwom, narzędzia energetyczne i wodne - widzimy, znacie sieć energetyczną, jeśli jedna część sieci wyląduje na niej na drzewie i wyjmie drąg i drut, mój dom nadal będzie zasilany. Nawet o tym nie wiem, często nawet nie widzę tego w wiadomościach. Wszyscy jesteśmy przyzwyczajeni do sieci transportowych, w których pierwotnie istniał scentralizowany model „Wszystkie drogi prowadziły do Rzymu”, jak mówią, a potem ostatecznie musieliśmy przejść do zdecentralizowanego modelu z piastami i szprychami, a potem poszliśmy do sieci zamkniętej, do której można dostać się z jednej strony miasta na drugą przez różne siatki i różne skrzyżowania. Widzimy tutaj, że ten scentralizowany model tego, co robimy teraz z Internetem rzeczy, będzie musiał wypchnąć na brzeg sieci. Dotyczy to analityki bardziej niż kiedykolwiek, i dlatego musimy wypchnąć analitykę do sieci. Aby to zrobić, moim zdaniem wymaga to całkowicie nowego podejścia do tego, w jaki sposób uzyskujemy dostęp do tych danych i strumieni danych oraz przetwarzamy je. Mówimy teraz o scenariuszu, w którym, jak sądzę, widzimy ograniczoną inteligencję wypychaną na brzeg sieci na urządzeniach podłączonych do Internetu, ale wkrótce zobaczymy, jak te urządzenia zwiększają inteligencję i zwiększają poziom analiz, których chcą do zrobienia. W związku z tym będziemy musieli wypychać tych inteligentnych użytkowników coraz dalej przez sieć.
Na przykład inteligentne aplikacje i media społecznościowe - jeśli myślimy o mediach społecznościowych i niektórych inteligentnych aplikacjach, są one nadal bardzo ważne. Wiesz, istnieją tylko dwa lub trzy centra danych dla takich jak Facebook. Google stał się znacznie bardziej zdecentralizowany, ale na całym świecie wciąż istnieje ograniczona liczba centrów danych. Kiedy myślimy o personalizacji treści, musisz przemyśleć sprawę na bardzo lokalnym poziomie. Wiele z tych czynności wykonuje się w przeglądarce lub w lokalnej warstwie sieci dostarczania treści. Myślimy o monitorach zdrowia i kondycji - wiele danych, które są od nich gromadzone, są analizowane lokalnie, więc nowe wersje urządzeń Garmin i Fitbit, które zakładasz na nadgarstek, stają się coraz inteligentniejsze w urządzeniu . Nie wysyłają teraz wszystkich danych dotyczących twojego tętna z powrotem do scentralizowanego serwera, aby spróbować wykonać analizę; budują tę inteligencję bezpośrednio w urządzeniu. Kiedyś nawigacja samochodowa polegała na tym, że samochód stale dostawał aktualizacje i mapy z centralnej lokalizacji, teraz smarty są w samochodzie, a samochód sam podejmuje decyzje, a w końcu samochody się połączą. Samochody będą rozmawiać ze sobą za pośrednictwem sieci bezprzewodowych jakiejś formy, która może być w sieci bezprzewodowej 3G lub 4G w następnej generacji, ale ostatecznie będzie to urządzenie do urządzenia. I jedynym sposobem na poradzenie sobie z tym jest zwiększenie wydajności urządzeń.
Mamy już systemy ostrzegania awaryjnego, które zbierają informacje lokalnie i przesyłają je centralnie lub do sieci kratowej i podejmują decyzje o tym, co dzieje się lokalnie. Na przykład w Japonii są aplikacje uruchamiane na smartfonach za pomocą akcelerometrów w smartfonie. Akcelerometry w smartfonie wykrywają wibracje i ruch i mogą określić różnicę między zwykłym codziennym ruchem a drżeniami i wstrząsami trzęsienia ziemi. Ten telefon zacznie Cię natychmiast ostrzegać lokalnie. Rzeczywista aplikacja wie, że wykrywa trzęsienia ziemi. Ale udostępnia również te dane przez sieć w rozproszonym hubie i modelu szprychowym, dzięki czemu osoby w pobliżu są ostrzegane natychmiast lub tak szybko, jak to możliwe, gdy dane przepływają przez sieć. A potem, kiedy dotrze do centralnej lokalizacji lub rozproszonej kopii centralnej lokalizacji, wypycha ją z powrotem do ludzi, którzy nie są w bezpośrednim obszarze, nie wykryli ruchu planety, ale muszą być o tym ostrzegani, ponieważ może nadchodzi tsunami.
I inteligentna infrastruktura miejska - koncepcja inteligentnej infrastruktury, już budujemy intelekt w inteligentnych budynkach i inteligentnej infrastrukturze. Wczoraj zaparkowałem samochód w mieście w nowej dzielnicy, gdzie część miasta jest odnawiana i przebudowywana. I zrobili to ponownie na wszystkich ulicach, a na ulicach są czujniki, a faktyczny parkometr wie, że kiedy wjechałem samochodem, wie, że kiedy idę się odświeżyć do limitu dwóch godzin, samochód się nie poruszył i właściwie nie pozwoliłbym na doładowanie i pozostanie przez kolejne dwie godziny. Musiałem wsiąść do samochodu, wydostać się z tego miejsca, a następnie wycofać się, aby go oszukać i pozwolić mi pozostać tam przez kolejne dwie godziny. Co ciekawe, w końcu dochodzimy do punktu, w którym nie tylko wykrywamy samochód wjeżdżający w obszar jako zlokalizowany czujnik, ale takie rzeczy, jak cechy optyczne, w których rozpoznanie zostanie zastosowane za pomocą kamer patrząc na moją tablicę rejestracyjną, i będzie wiedział że właśnie wyciągnąłem, wciągnąłem z powrotem i oszukałem, i to po prostu nie pozwoli mi się odnowić, a ja przejdę dalej. A potem rozprowadzi te dane i upewni się, że nie będę mógł tego zrobić nigdzie indziej, a także oszukać sieć na bieżąco. Ponieważ z natury musi być mądrzejszy, w przeciwnym razie wszyscy będziemy dalej oszukiwać.
Jest na to przykład, w którym osobiście mieszkałem, gdzie w technologii zapory ogniowej, pod koniec lat 80. i na początku 90., produkt o nazwie Check Point FireWall-1. Bardzo prosta technologia zapory ogniowej, której używaliśmy do tworzenia reguł i budowania zasad i reguł wokół pewnych rzeczy, aby powiedzieć, że typy ruchu przez określone porty i adresy IP oraz sieci, aby dostać się do siebie i od siebie, ruch internetowy z jednego miejsca do drugiego, przejście od przeglądarki i klienta do naszego serwera. Rozwiązaliśmy ten problem, usuwając logikę z samych zapór ogniowych i przenosząc ją do ASIC, specyficznego dla aplikacji układu scalonego. Kontrolował porty w przełącznikach Ethernet. Okazało się, że komputery serwerów, których faktycznie używaliśmy jako serwerów do podejmowania decyzji jako zapory ogniowe, nie były wystarczająco mocne, aby poradzić sobie z natężeniem ruchu przechodzącego przez nie przy każdej drobnej inspekcji pakietu. Rozwiązaliśmy problem, przenosząc logikę wymaganą do kontroli pakietów i wykrywania Internetu do przełączników sieciowych, które były rozproszone i mogły obsłużyć ilość danych przechodzących przez poziom sieci. Nie przejmowaliśmy się tym na scentralizowanym poziomie z zaporami ogniowymi, przenieśliśmy go na przełączniki.
Dlatego też zmusiliśmy producentów do zbudowania dla nas możliwości wypychania ścieżek, reguł i zasad do przełącznika Ethernet, tak że na faktycznym poziomie portu Ethernet, a być może wielu ludzi w puli nie zna tego, ponieważ jesteśmy wszyscy żyją teraz w świecie bezprzewodowym, ale kiedyś wszystko musiało zostać podłączone przez Ethernet. Teraz na poziomie portu Ethernet przeprowadzaliśmy kontrolę pakietów, aby sprawdzić, czy pakiety mogły nawet przejść do przełącznika i do sieci. Część z tego rozwiązujemy teraz w związku z tym wyzwaniem przechwytywania danych w sieci, szczególnie z urządzeń IRT, sprawdzania ich i przeprowadzania analiz oraz prawdopodobnie analiz w czasie rzeczywistym w celu podjęcia decyzji w tej sprawie. A niektóre z nich mają na celu uzyskanie wglądu w inteligencję biznesową i informacje o tym, jak ludzie podejmują lepsze decyzje oraz inne analizy i wydajność w odniesieniu do rzeczy na poziomie maszyna-maszyna, gdzie urządzenia rozmawiają z urządzeniami i podejmują decyzje.
Będzie to trend, który musimy rozwiązać w najbliższej przyszłości, ponieważ jeśli tego nie zrobimy, skończymy z tym zalewem hałasu. I widzieliśmy w świecie dużych zbiorów danych, widzieliśmy, jak jeziora danych zamieniają się w bagna danych, w których po prostu powstaje zalew hałasu, którego nie wymyśliliśmy, jak rozwiązać analitykę przetwarzania w scentralizowanym moda. Moim zdaniem, jeśli nie rozwiążemy tego problemu z IoT i szybko uzyskamy rozwiązanie platformy, skończymy w bardzo, bardzo złym miejscu.
Mając to na uwadze, zakończę moją uwagę, że uważam, że jedną z największych zmian zachodzących w przestrzeni dużych zbiorów danych i analiz jest teraz bezpośrednia potrzeba reagowania na wpływ internetu na temat analiz o dużej objętości i analiz w czasie rzeczywistym, ponieważ musimy przenieść analitykę do sieci, a następnie na skraj sieci, aby poradzić sobie z samą jej wielkością, tylko po to, aby ją przetworzyć. I ostatecznie, miejmy nadzieję, umieściliśmy inteligencję w sieci i jej krawędzi w modelu koncentratora i szprychy, że możemy faktycznie nią zarządzać i uzyskiwać wgląd w czasie rzeczywistym i czerpać z tego wartość. I dzięki temu przekażę naszemu gościowi i zobaczę, dokąd zaprowadzi nas ta rozmowa.
Shawn Rogers: Dziękuję bardzo. To jest Shawn Rogers z Dell Statistica i chłopak, na początek, całkowicie zgadzam się ze wszystkimi głównymi tematami, które zostały tu poruszone. Rebecca, zaczęłaś od pomysłu, wiesz, że te dane nie są nowe, i jest dla mnie niezwykłe, ile czasu i energii spędza na omawianiu danych, danych, danych IoT. I to z pewnością ma znaczenie, wiesz, Robin miał rację, nawet jeśli robisz coś naprawdę prostego i podłączasz się do termostatu raz na sekundę, wiesz, robisz to 24 godziny na dobę i faktycznie masz, wiesz, kilka interesujących wyzwań związanych z danymi. Ale, wiesz, w końcu - i myślę, że wiele osób w branży mówi w ten sposób o danych - że tak naprawdę nie jest to aż tak interesujące i, zdaniem Rebecca, minęło już sporo czasu, ale w przeszłości nie byliśmy w stanie z tego skorzystać. I myślę, że branża zaawansowanych analiz i ogólnie branża BI zaczynają naprawdę odwracać głowy w kierunku Internetu Rzeczy. I Dez, do ostatniego punktu, ponieważ jest to część lub jeden z trudnych punktów krajobrazu dużych zbiorów danych, które uważam za bardzo prawdziwe. Myślę, że wszyscy są bardzo podekscytowani tym, co możemy zrobić z tego rodzaju danymi, ale jednocześnie, jeśli nie możemy wymyślić sposobu zastosowania wglądu, podjąć działania i, wiesz, uzyskać analizy, gdzie są dane, myślę będziemy mieli wyzwania, których ludzie tak naprawdę nie widzą.
To powiedziawszy, w zaawansowanej przestrzeni analitycznej jesteśmy wielkimi fanami tego, co naszym zdaniem może się zdarzyć z danymi IoT, szczególnie jeśli zastosujemy do nich analizy. I jest wiele informacji na tym slajdzie i pozwolę wszystkim po prostu polować i dziobać, ale jeśli spojrzysz na różne sektory, takie jak handel detaliczny po skrajnej prawej stronie, zobaczysz ich szansę na bycie bardziej innowacyjnym lub posiadającym trochę oszczędności kosztów, optymalizacja lub ulepszenia procesów są bardzo ważne i widzą w tym wiele przypadków użycia. Jeśli spojrzysz, od lewej do prawej na slajdzie, zobaczysz, jak każda z tych branż korzysta z nowych możliwości i nowych możliwości różnicowania się, gdy stosuje analizy do Internetu Rzeczy. I myślę, że sedno sprawy polega na tym, że jeśli zamierzasz pójść tą ścieżką, musisz nie tylko martwić się o dane, o których rozmawialiśmy, i architekturą, ale musisz także zastanowić się, jak najlepiej zastosuj do niej dane analityczne i miejsca, w których dane analityczne muszą się odbyć.
Wielu z nas na dzisiejszej rozmowie, wiesz, Robin i ja znamy się od bardzo dawna i odbyliśmy niezliczone rozmowy na temat tradycyjnych architektur w przeszłości, tych wokół scentralizowanych baz danych lub hurtowni danych dla przedsiębiorstw i tak dalej, a my „ odkryliśmy w ciągu ostatniej dekady, a więc wykonujemy całkiem dobrą robotę, rozciągając ograniczenia tych infrastruktur. I nie są tak niezawodni ani tak silni, jak chcielibyśmy, aby były dzisiaj, aby wspierać wszystkie świetne analizy, które stosujemy do informacji i oczywiście informacje psują architekturę, wiesz, szybkość danych, ilość danych i tak dalej zdecydowanie ograniczają ograniczenia niektórych naszych bardziej tradycyjnych podejść i strategii do tego rodzaju pracy. Wydaje mi się, że zaczyna się wzywać do tego, aby firmy przyjęły bardziej zwinny i być może bardziej elastyczny punkt widzenia, i chyba właśnie dlatego chciałbym porozmawiać o stronie IoT.
Zanim to zrobię, poświęcę chwilę, aby pozwolić wszystkim na rozmowę, dać ci trochę informacji na temat tego, czym jest Statistica i co robimy. Jak widać w tytule tego slajdu, Statistica to analityka predykcyjna, big data i wizualizacja dla platformy IoT. Sam produkt ma nieco ponad 30 lat i konkurujemy z innymi liderami na rynku, których zapewne znasz, podobnie jak w przypadku analityki predykcyjnej, zaawansowanej analityki danych. Widzieliśmy okazję do poszerzenia naszego zakresu, w którym umieściliśmy nasze analizy i zaczęliśmy pracować nad niektórymi technologiami, które pozwoliły nam raczej dobrze wykorzystać to, o czym rozmawiali dzisiaj zarówno Dez, jak i Robin, a mianowicie to nowe podejście i gdzie zamierzasz umieścić dane analityczne i jak połączyć je z danymi. Po tej stronie pojawiają się inne rzeczy, którymi musisz się zająć na platformie, a jak już wspomniałem, Statistica jest na rynku od dłuższego czasu. Jesteśmy bardzo dobrzy w dziedzinie mieszania danych i myślę, że wiesz, nie rozmawialiśmy dzisiaj zbyt wiele o dostępie do danych, ale jesteśmy w stanie dotrzeć do tych różnorodnych sieci i uzyskać właściwe dane na właściwy czas staje się coraz bardziej interesujący i ważny dla użytkowników końcowych.
Na koniec skomentuję tutaj jeszcze jeden element, ponieważ Dez miał rację co do samych sieci, mając pewien poziom kontroli i bezpieczeństwa nad modelami analitycznymi w całym środowisku oraz w jaki sposób przywiązują się do danych, które stają się bardzo ważne. Kiedy dołączyłem do tej branży kilka lat temu - myślę, że w tym momencie prawie 20 - kiedy mówiliśmy o zaawansowanej analityce, było to bardzo wyselekcjonowane. Tylko kilka osób w organizacji miało to pod ręką, wdrożyło go i dało ludziom odpowiedź zgodnie z wymaganiami lub zapewniło wgląd w razie potrzeby. To się naprawdę zmienia i widzimy, że wiele osób pracowało z jednym lub kilkoma zróżnicowanymi i bardziej elastycznymi sposobami dotarcia do danych, stosowania bezpieczeństwa i zarządzania danymi, a następnie możliwości współpracy nad nimi. To niektóre z ważnych rzeczy, na które patrzy Dell Statistica.
Ale chcę zagłębić się w temat, który jest nieco bliższy dzisiejszemu tytułowi, czyli w jaki sposób powinniśmy zajmować się danymi pochodzącymi z Internetu rzeczy i tym, czego możesz chcieć, gdy szukasz różnych rozwiązań. Slajd, który mam teraz przed sobą, jest rodzajem tradycyjnego widoku i zarówno Dez, jak i Robin nawiązali do tego, no wiesz, tego pomysłu na rozmowę z czujnikiem, czy to samochód, toster czy jak turbina wiatrowa lub co tam masz, a następnie przenoszenie tych danych ze źródła danych do sieci z powrotem do scentralizowanej konfiguracji, jak wspomniał Dez. I działa całkiem dobrze w sieci, a wiele firm wchodzi w przestrzeń IoT początkowo robi to z tym modelem.
Kolejną rzeczą, która pojawiła się, jeśli spojrzysz na dół slajdu, jest pomysł wzięcia innych tradycyjnych źródeł danych, rozszerzenia danych IoT, a następnie tego rodzaju rdzenia, niezależnie od tego, czy twoim rdzeniem jest centrum danych, czy to może znajdować się w chmurze, to nie ma znaczenia, wziąłbyś produkt taki jak Statistica, a następnie zastosowałbyś w tym celu dane analityczne, a następnie przekazałby te informacje konsumentom po prawej stronie. I myślę, że w tym momencie są to stawki stołowe. Jest to coś, co musisz być w stanie zrobić i musisz mieć wystarczająco otwartą architekturę dla zaawansowanej platformy analitycznej i rozmawiać z tymi wszystkimi rodzajami różnorodnych źródeł danych, wszystkimi tymi czujnikami i wszystkimi różnymi miejscami docelowymi, w których masz dane. I myślę, że jest to coś, co musisz zrobić i myślę, że prawdą jest, że wielu liderów na rynku jest w stanie robić takie rzeczy. W Statistica mówimy o tym jako o podstawowej analizie. Zdobądź dane, przenieś je z powrotem do rdzenia, przetwarzaj je, dodaj więcej danych, jeśli to konieczne lub korzystne, i dokonaj analizy, a następnie udostępnij te informacje do działania lub wglądu.
Myślę więc, że z pewnością są one z punktu widzenia funkcji, prawdopodobnie wszyscy zgodzilibyśmy się, że jest to absolutna konieczność i każdy musi to robić. Ciekawe jest to, że masz ogromne ilości danych pochodzących z różnych źródeł danych, takich jak czujniki IoT, jak wspomniałem, niezależnie od tego, czy jest to samochód, kamera bezpieczeństwa, czy proces produkcyjny. zaletą jest możliwość przeprowadzenia analizy w miejscu, w którym dane są faktycznie wytwarzane. Zaletą dla większości ludzi, jak sądzę, kiedy zaczynamy przenosić analizy z rdzenia na skraj, jest możliwość rozproszenia niektórych wyzwań związanych z danymi, a Dez i Robin prawdopodobnie skomentują to na końcu dzisiaj, ale myślę, że musisz być w stanie monitorować dane i podejmować działania na ich brzegach, aby nie zawsze było konieczne przenoszenie wszystkich tych danych do sieci. Robin mówił o tym na swoich rodzajowych obrazach architektury, które narysował, gdzie masz wszystkie te różne źródła, ale zwykle jest jakiś punkt agregacji. Często obserwowany punkt agregacji znajduje się na poziomie czujnika, ale jeszcze częściej na poziomie bramy. Bramy te istnieją jako rodzaj pośrednika w przepływie danych ze źródeł danych przed powrotem do rdzenia.
Jedną z możliwości, z których skorzystał Dell Statistica, jest to, że możemy wyeksportować model z naszej scentralizowanej zaawansowanej platformy analitycznej, aby móc wziąć model, a następnie wykonać ten model na krawędzi na innej platformie, np. Bramie lub w środku bazy danych lub co masz. I myślę, że elastyczność, która nam daje, jest naprawdę interesującym punktem dzisiejszej rozmowy, czy masz ją dzisiaj w swojej infrastrukturze? Czy jesteś w stanie przenieść dane analityczne do miejsca, w którym znajdują się dane, czy po prostu zawsze przenieść dane do miejsca, w którym znajdują się dane analityczne? I to jest coś, na czym Statistica koncentruje się od dłuższego czasu, a kiedy przyjrzysz się bliżej slajdom, zobaczysz, że jest tam inna technologia naszej siostrzanej firmy, Dell Boomi. Dell Boomi to platforma do integracji danych i aplikacji w chmurze, a my faktycznie używamy Dell Boomi jako urządzenia do handlu, aby przenosić nasze modele z Dell Statistica, przez Boomi i na urządzenia brzegowe. Uważamy, że jest to zwinne podejście, którego firmy będą wymagać, tak samo jak podoba im się wersja, którą pokazałem wam przed chwilą, która jest rodzajem podstawowej idei przenoszenia danych z czujników z powrotem do centrum, w tym samym czasie firmy będą chciały móc to zrobić w sposób, który tu opisuję. Korzyści płynące z tego są związane z niektórymi punktami, które przedstawili zarówno Robin, jak i Dez, tj. Czy możesz podjąć decyzję i podjąć działania z prędkością swojego biznesu? Czy możesz przenosić analizy z jednego miejsca do drugiego i być w stanie zaoszczędzić czas, pieniądze i energię oraz złożoność ciągłego przenoszenia tych krawędzi danych z powrotem do rdzenia.
Teraz jako pierwszy mówię, że niektóre dane brzegowe zawsze będą miały wystarczająco wysoką wartość, w których sensowne byłoby przechowywanie tych danych i przechowywanie ich z powrotem do sieci, ale jakie analizy brzegowe pozwolą ci czy jest możliwość podejmowania decyzji z szybkością, z jaką dane faktycznie docierają, prawda? Że jesteś w stanie zastosować wgląd i akcję z prędkością, przy której jest najwyższa możliwa wartość. I myślę, że jest to coś, czego wszyscy będziemy szukać, jeśli chodzi o wykorzystanie zaawansowanych analiz i danych IoT, jest to okazja, aby poruszać się z prędkością firmy lub szybkością wymaganą przez klienta. Myślę, że naszym stanowiskiem jest to, że myślę, że musisz być w stanie zrobić obie rzeczy. I myślę, że wkrótce i bardzo szybko, ponieważ coraz więcej firm szuka bardziej zróżnicowanych zestawów danych, szczególnie tych od strony Internetu Rzeczy, zacznie patrzeć na przestrzeń dostawców i domaga się tego, co potrafi Statistica. Który polega na wdrożeniu modelu w rdzeniu, jak to robiliśmy tradycyjnie od wielu lat, lub wdrożeniu go na platformach, które być może nietradycyjne, takie jak bramka IoT, i aby rzeczywiście móc oceniać i stosować analizy danych na krawędzi, gdy powstają dane. I myślę, że właśnie tutaj pojawia się ekscytująca część tej rozmowy. Ponieważ dzięki możliwości zastosowania analizy na krawędzi w momencie, gdy dane wychodzą z czujnika, możemy podjąć działania tak szybko, jak to konieczne, ale pozwala nam również zdecydować, czy dane muszą natychmiast wrócić do rdzenia? Czy możemy go tutaj wsadować, a następnie odesłać w częściach i przeprowadzić dalszą analizę? I właśnie to robi wielu naszych wiodących klientów.
Sposób, w jaki robi to Dell Statistica, możemy wykorzystać, więc powiedzmy na przykład, że budujesz sieć neuronową w Statistica i chciałeś umieścić sieć neuronową gdzie indziej w twoim otoczeniu danych. Mamy możliwość wyprowadzania tych modeli i wszystkich języków, które zauważyłeś w prawym rogu - Java, PPML, C i SQL itd., My także włączamy Python i możemy również eksportować nasze skrypty - a gdy przeniesiesz to z naszej scentralizowanej platformy, możesz wdrożyć ten model lub algorytm tam, gdzie jest to potrzebne. I jak wspomniałem wcześniej, używamy Dell Boomi, aby umieścić go i zaparkować tam, gdzie musimy go uruchomić, a następnie możemy przywrócić wyniki lub możemy pomóc w odzyskaniu danych lub ocenić dane i podjąć działania przy użyciu naszego silnika reguł . Wszystkie te rzeczy stają się w pewnym sensie ważne, gdy zaczynamy patrzeć na tego rodzaju dane i myślimy jeszcze raz.
Jest to coś, co większość z was będzie musiała zrobić, ponieważ stanie się to bardzo kosztowne i opodatkowanie sieci, jak wspomniał Dez, aby przenieść dane z lewej strony tych diagramów na prawo od nich czas. To nie brzmi dużo, ale widzieliśmy, jak w ich fabrykach produkuje się klientów z dziesięcioma tysiącami czujników. A jeśli masz w fabryce dziesięć tysięcy czujników, nawet jeśli wykonujesz je po raz drugi w rodzaju testów lub sygnałów, mówisz o osiemdziesięciu czterech tysiącach wierszy danych z każdego z tych indywidualnych czujników dziennie. I tak dane zdecydowanie się gromadzą i Robin coś o tym wspomniał. Z góry wspomniałem o kilku branżach, w których widzimy, jak ludzie wykonują całkiem interesujące rzeczy przy użyciu naszego oprogramowania i danych IoT: automatyzacja budynku, energia, narzędzia to naprawdę ważna przestrzeń. Widzimy wiele pracy nad optymalizacją systemu, nawet obsługą klienta i oczywiście ogólnymi operacjami i konserwacją, w obiektach energetycznych i budynku automatyzacji. A oto niektóre przypadki użycia, które, jak widzimy, są dość potężne.
Robiliśmy analitykę przed, jak sądzę, wymyślono ten termin. Jak wspomniałem, mamy głębokie korzenie w Statistica. Firma została założona prawie 30 lat temu, więc mamy klientów, którzy już od dawna integrują dane IoT z ich analizami. A Alliant Energy jest jednym z naszych przypadków użycia lub referencyjnych klientów. I możesz sobie wyobrazić problem, jaki ma przedsiębiorstwo energetyczne z fizyczną instalacją. Skalowanie poza ceglane ściany fizycznego zakładu jest trudne, dlatego firmy energetyczne, takie jak Alliant, szukają sposobów na optymalizację produkcji energii, zasadniczo usprawniając proces produkcji i optymalizując ją do najwyższego poziomu. I używają Statistica do zarządzania piecami w swoich zakładach. A dla nas wszystkich, którzy wracamy do pierwszych dni nauki, wszyscy wiemy, że piece wytwarzają ciepło, ciepło wytwarza parę, turbiny wirują, otrzymujemy prąd. Problemem dla firm takich jak Alliant jest optymalizacja sposobu podgrzewania i spalania w dużych piecach cyklonowych. I optymalizacja wydajności w celu uniknięcia dodatkowych kosztów zanieczyszczenia, wypierania węgla i tak dalej. Musisz więc być w stanie monitorować wnętrze jednego z tych pieców cyklonowych za pomocą wszystkich tych urządzeń, czujników, a następnie pobierać wszystkie dane z tych czujników i na bieżąco wprowadzać zmiany w procesie energetycznym. I to właśnie robi Statistica dla Alliant od około 2007 roku, zanim nawet termin IoT był bardzo popularny.
Do wczesnego punktu Rebecca dane z pewnością nie są nowe. Zdolność do przetworzenia i prawidłowego użycia jest tam, gdzie dzieją się ekscytujące rzeczy. Dzisiaj rozmawialiśmy trochę o opiece zdrowotnej i widzimy wszelkiego rodzaju aplikacje dla ludzi do robienia takich rzeczy, jak lepsza opieka nad pacjentem, konserwacja zapobiegawcza, zarządzanie łańcuchem dostaw i wydajność operacyjna w służbie zdrowia. I to jest dość ciągłe i istnieje wiele różnych przypadków użycia. Z Statystica jesteśmy dumni, że jesteśmy z naszym klientem Shire Biopharmaceuticals. A Shire produkuje specjalne leki na naprawdę trudne do leczenia choroby. A kiedy tworzą partię swoich leków dla swoich klientów, jest to niezwykle kosztowny proces, a ten niezwykle kosztowny proces również wymaga czasu. Kiedy myślisz o procesie produkcyjnym, gdy widzisz, że wyzwania łączą wszystkie dane, jesteś wystarczająco elastyczny na różne sposoby wprowadzania danych do systemu, sprawdzania poprawności informacji, a następnie być w stanie przewidywać, w jaki sposób pomagamy temu klientowi. I procesy, które wyciągały większość informacji z naszych systemów produkcyjnych i oczywiście urządzenia i czujniki, które napędzają te systemy produkcyjne. Jest to świetny przykład zastosowania, w jaki sposób firmy unikają strat i optymalizują procesy produkcyjne za pomocą kombinacji danych z czujników, danych IoT i regularnych danych z ich procesów.
Więc wiesz, dobrym przykładem tego, gdzie produkcja, a zwłaszcza produkcja z wykorzystaniem zaawansowanych technologii, są korzystne dla branży opieki zdrowotnej w związku z tego rodzaju pracą i danymi. Myślę, że mam jeszcze kilka innych kwestii, które chciałbym poruszyć, zanim zakończę i oddam Dezowi i Robin. Ale wiesz, myślę, że ten pomysł, aby być w stanie popchnąć swoją analitię w dowolne miejsce w twoim środowisku, jest czymś, co stanie się niezwykle ważne dla większości firm. Przywiązanie do tradycyjnego formatu danych ETL ze źródeł z powrotem do centralnych lokalizacji zawsze będzie miało miejsce w Twojej strategii, ale nie powinno być Twoją jedyną strategią. Musisz dziś przyjąć znacznie bardziej elastyczne podejście do rzeczy. Aby zastosować wspomniane przeze mnie zabezpieczenia, unikaj opodatkowania swojej sieci, aby móc zarządzać i filtrować dane pochodzące z brzegu, a także określić, które dane warto przechowywać na dłuższą metę, jakie dane warto przenosić do naszej sieci lub jakie dane należy analizować w momencie ich tworzenia, abyśmy mogli podejmować najlepsze możliwe decyzje. To podejście analityczne wszędzie i wszędzie jest dla nas bardzo ważne w Statistica i jest to coś, w czym jesteśmy bardzo biegli. I wraca do jednego ze slajdów, o których wspominałem wcześniej, do możliwości eksportowania twoich modeli w różnych językach, dzięki czemu można je dopasować i dostosować do platform, na których tworzone są dane. No i oczywiście mamy urządzenie dystrybucyjne do tych modeli, które również przynosimy na stół i jesteśmy bardzo podekscytowani. Myślę, że dzisiejsza rozmowa polega na tym, że jeśli naprawdę poważnie zajmiemy się danymi, które były w naszym systemie od dłuższego czasu i chcielibyśmy znaleźć przewagę konkurencyjną i nowatorski sposób ich wykorzystania, należy zastosować jakąś technologię, która pozwala uciec od niektórych restrykcyjnych modeli, których używaliśmy w przeszłości.
Ponownie, moim celem jest to, że jeśli zamierzasz robić Internet Rzeczy, myślę, że musisz być w stanie zrobić to w centrum uwagi, zebrać dane i dopasować je do innych danych oraz dokonać analizy. Ale równie ważne, a może nawet ważniejsze jest, że musisz mieć taką elastyczność, aby umieścić dane analityczne z danymi i przenieść analizy z centralnej strony swojej architektury na brzeg, aby uzyskać korzyści, o których wspomniałem przed. To trochę o tym, kim jesteśmy i co robimy na rynku. Jesteśmy bardzo podekscytowani IoT, uważamy, że zdecydowanie się zestarzeje i wszyscy mają tutaj ogromne możliwości wpływania na swoje analizy i krytyczne procesy przy użyciu tego rodzaju danych.
Rebecca Jóźwiak: Shawn, wielkie dzięki, to była naprawdę fantastyczna prezentacja. I wiem, że Dez prawdopodobnie umiera, by zadać ci kilka pytań, więc Dez, pozwolę ci odejść pierwszy.
Dez Blanchfield: Mam milion pytań, ale powstrzymam się, bo wiem, że Robin też. Jedną z rzeczy, które widzę daleko, jest pytanie, które się pojawia i naprawdę chcę uzyskać wgląd w twoje doświadczenia w tym, biorąc pod uwagę, że jesteś w samym sercu rzeczy. Organizacje borykają się z tym wyzwaniem. Wygląda na to, że niektóre z nich właśnie przeczytały „Czwarta rewolucja przemysłowa” Klausa Schwaba, a następnie miały atak paniki. A ci, którzy nie są zaznajomieni z tą książką, to w gruncie rzeczy wgląd dżentelmenów, Klausa Schwaba, który, jak sądzę, jest profesorem, który jest założycielem i Prezesem Światowego Forum Ekonomicznego z pamięci, a książka zasadniczo dotyczy cały ten wszechobecny internet eksplozji rzeczy i niektóre wpływy na świat w ogóle. Organizacje, z którymi rozmawiam, nie są pewne, czy powinny przejść do modernizacji obecnego środowiska, czy zainwestować wszystko w budowę nowego środowiska, infrastruktury i platform. Czy w Dell Statistica widzisz ludzi, którzy modernizują obecne środowiska i wdrażają platformę w istniejącej infrastrukturze, czy widzisz, jak skupiają się na budowaniu nowej infrastruktury i przygotowaniu się na potop?
Shawn Rogers: Wiesz, mieliśmy okazję obsługiwać oba rodzaje klientów i będąc na rynku tak długo, jak my, masz okazję, aby wejść na szeroką skalę. Mamy klientów, którzy w ciągu ostatnich kilku lat stworzyli zupełnie nowe fabryki fabryk i wyposażyli je w dane z czujników, Internet Rzeczy, analizy od samego początku do końca w całym tym procesie. Ale muszę powiedzieć, że większość naszych klientów to ludzie, którzy wykonują ten rodzaj pracy od pewnego czasu, ale zostali zmuszeni do zignorowania tych danych. Wiesz, Rebecca od razu zwróciła na to uwagę - to nie są nowe dane, tego rodzaju informacje były dostępne w wielu różnych formatach od bardzo dawna, ale tam, gdzie był problem, łączy się z nimi, przenosząc go, przenosząc w miejsce, w którym można zrobić z nim coś inteligentnego.
I powiedziałbym, że większość naszych klientów patrzy na to, co mają dzisiaj, a Dez, powiedziałeś już wcześniej, że jest to część rewolucji w zakresie dużych zbiorów danych i myślę, że tak naprawdę chodzi o to, że chodzi o wszystko rewolucja danych, prawda? Nie musimy już ignorować niektórych danych systemowych, danych produkcyjnych ani danych automatyki budynkowej, mamy teraz odpowiednie zabawki i narzędzia, aby je zdobyć, a następnie zrobić z nim mądre rzeczy. Myślę, że w tej przestrzeni jest wielu kierowców, a niektórzy z nich są technologiczni. Wiesz, rozwiązania infrastruktury dużych zbiorów danych, takie jak Hadoop i inne, sprawiły, że stało się to trochę tańsze i nieco łatwiej dla niektórych z nas myśleć o stworzeniu jeziora danych tego rodzaju informacji. Rozglądamy się teraz wokół przedsiębiorstwa: „Hej, mamy analizy w naszym procesie produkcyjnym, ale czy zostałyby one ulepszone, gdybyśmy mogli dodać wgląd w te procesy?” I myślę, że to większość nasi klienci robią. Nie tyle tworzy od podstaw, ale rozszerza i optymalizuje dane analityczne, które już posiadają, dzięki nowym dla nich danym.
Dez Blanchfield: Tak, w niektórych z największych branż, które widzieliśmy, dzieje się coś ekscytującego. Wspomniał pan o sile i użyteczności. Lotnictwo właśnie przechodzi ten boom, w którym jedno z moich ulubionych urządzeń, o których regularnie mówię, Boeing 787 Dreamliner, a na pewno odpowiednik Airbusa, A330 poszło tą samą drogą. W 787 było 78 tysięcy czujników, kiedy po raz pierwszy zostało wypuszczone, i myślę, że teraz mówią o piętnastu tysiącach czujników w nowej wersji. Ciekawą rzeczą w rozmowach z niektórymi ludźmi w tym świecie było to, że pomysł umieszczenia czujników w skrzydłach i tak dalej, a niesamowitą rzeczą w 787 na platformie projektowej jest to, że, wiesz, wymyślili wszystko na nowo samolot. Podobnie jak skrzydła, na przykład, kiedy samolot zdejmuje skrzydła, wygina się do dwunastu i pół metra. Ale w skrajnych przypadkach skrzydła mogą wyginać się na końcu do 25 metrów. To wygląda jak trzepotanie ptaka. Ale nie mieli czasu, aby to naprawić, to inżynieria analityczna wszystkich tych danych, więc mają czujniki, które sprawiają, że diody LED migają na zielono i czerwono, jeśli dzieje się coś złego, ale w rzeczywistości nie kończą się głębokim wglądem w czas rzeczywisty. Nie rozwiązali również problemu przenoszenia ilości danych, ponieważ w krajowej przestrzeni powietrznej w USA codziennie jest 87 400 lotów. Kiedy każdy samolot nadrabia zaległości w wykupie 787 Dreamlinera, to 43 petabajty danych dziennie, ponieważ samoloty te obecnie tworzą około pół terabajta danych. Kiedy pomnożymy 87.400 lotów dziennie w USA przez punkt pięć lub pół terabajta, otrzymamy 43, 5 petabajtów danych. Nie możemy tego fizycznie przenieść. Dlatego z założenia musimy wypchnąć dane analityczne na urządzenie.
Ale jedną z rzeczy, które są interesujące, gdy patrzę na całą architekturę - i chcę zobaczyć, co o tym sądzisz - jest to, że przeszliśmy w kierunku zarządzania danymi podstawowymi, niejako pierwszych zasad zarządzania danymi, ciągnięcia wszystko w centralnej lokalizacji. Mamy jeziora danych, a następnie tworzymy małe zbiorniki danych, jeśli chcesz, wyciągi z tego, na których analizujemy, ale dystrybuując do krawędzi, jedną z rzeczy, która wciąż się pojawia, szczególnie od osób baz danych i menedżerów danych lub ludzie zajmujący się zarządzaniem informacjami, czy to się dzieje, gdy mam dużo rozproszonych małych miniaturowych jezior danych? Jakie rzeczy zostały zastosowane do tego myślenia w odniesieniu do analityki krawędzi w twoim rozwiązaniu, w tym, że tradycyjnie wszystko przychodziłoby centralnie do jeziora danych, teraz kończymy z tymi małymi kałużami danych wszędzie, i chociaż możemy przeprowadzić na nich analizy lokalnie, aby uzyskać lokalny wgląd, jakie są niektóre wyzwania, z jakimi się musieliście zmierzyć i jak to rozwiązaliście, mając ten rozproszony zestaw danych, a zwłaszcza kiedy otrzymujemy mikrokosmosy jezior danych i obszarów rozproszonych?
Shawn Rogers: Myślę, że to jedno z wyzwań, prawda? Kiedy odchodzimy, wiesz, że przeniesienie wszystkich danych z powrotem do centralnej lokalizacji lub głównego przykładu analitycznego, który podałem, a następnie robimy wersję rozproszoną, to znaczy, że kończysz z tymi wszystkimi małymi silosami, prawda? Tak jak przedstawiłeś, prawda? Wykonują trochę pracy, niektóre analizy są uruchomione, ale jak je połączyć? I myślę, że kluczem do tego będzie aranżacja i myślę, że zgodzicie się ze mną, ale cieszę się, jeśli nie, że myślę, że obserwowaliśmy tę ewolucję czasami.
Wracając do czasów naszych przyjaciół, Pana Inmona i Pana Kimball, którzy pomogli wszystkim w architekturze ich wczesnych inwestycji w hurtownię danych, chodzi o to, że od dawna odeszliśmy od tego scentralizowanego modelu. Przyjęliśmy ten nowy pomysł, aby pozwolić na to, aby dane pokazały swoją grawitację tam, gdzie najlepiej powinny znajdować się w twoim ekosystemie, i zrównanie danych z najlepszą możliwą platformą dla uzyskania najlepszego możliwego rezultatu. Wydaje mi się, że zaczęliśmy wydawać bardziej uporządkowane podejście do naszego ekosystemu jako nadrzędny sposób robienia rzeczy, podobnie jak tam, gdzie staramy się wyrównać wszystkie te elementy jednocześnie. Jaki rodzaj analizy lub pracy zamierzam wykonać z danymi, jaki to rodzaj danych, które pomogą określić, gdzie powinny one mieszkać. Gdzie jest wytwarzany i jaki rodzaj grawitacji mają dane?
Wiesz, widzimy wiele przykładów dużych zbiorów danych, w których ludzie mówią o jeziorach danych o 10 i 15 petabajtach. Cóż, jeśli masz tak duże jezioro danych, przeniesienie go jest bardzo niepraktyczne, więc musisz mieć możliwość przeprowadzenia analizy. Ale kiedy to robisz, do sedna twojego pytania, myślę, że rodzi to wiele nowych wyzwań dla wszystkich w zakresie organizacji środowiska oraz zastosowania zarządzania i bezpieczeństwa, a także zrozumienia, co należy zrobić z tymi danymi, aby je wyleczyć i uzyskać z tego najwyższą wartość. I szczerze mówiąc - chciałbym usłyszeć twoją opinię tutaj - myślę, że jesteśmy tam wcześnie i myślę, że jest jeszcze wiele dobrego do zrobienia. Myślę, że programy takie jak Statistica koncentrują się na zapewnieniu większej liczbie osób dostępu do danych. Zdecydowanie koncentrujemy się na tych nowych osobach, takich jak naukowcy zajmujący się danymi obywatelskimi, którzy chcą przeprowadzać analizy predykcyjne w miejscach w organizacji, których być może wcześniej nie było. I myślę, że to niektóre z pierwszych dni, ale myślę, że dojrzałość będzie musiała wykazać wysoki poziom lub koordynację i wyrównanie między tymi platformami oraz zrozumienie, co jest na nich i dlaczego. I to jest odwieczny problem dla nas wszystkich ludzi danych.
Dez Blanchfield: Rzeczywiście tak jest i całkowicie się z tobą zgadzam i myślę, że wspaniałą rzeczą, którą słyszymy tutaj dzisiaj, jest przynajmniej front end problemu przechwytywania danych, jak sądzę, na poziomie bramy na krawędzi sieci i zdolność do przeprowadzania analiz w tym momencie została zasadniczo rozwiązana. I teraz pozwala nam zacząć myśleć o kolejnym wyzwaniu, jakim są dystrybuowane jeziora danych. Bardzo za to dziękuję, to była fantastyczna prezentacja. Naprawdę doceniam szansę porozmawiania z tobą na ten temat.
Przejdę teraz do Robina, ponieważ wiem, że on ma, a potem Rebecca ma też długą listę świetnych pytań od publiczności po Robinie. Rudzik?
Dr Robin Bloor: OK. Shawn, chciałbym, żebyś powiedział coś więcej i nie próbuję dać ci szansy na reklamę, ale to jest naprawdę bardzo ważne. Chcę wiedzieć, w którym momencie Statistica faktycznie wygenerowała możliwość eksportu modelu. Ale ja również chciałbym, abyście powiedzieli coś o Boomi, ponieważ wszystko, co do tej pory mówiliście o Boomi, to fakt, że jest to ETL, a tak naprawdę jest to ETL. Ale tak naprawdę jest to całkiem zdolny ETL i dla tego rodzaju czasów, o których mówimy, i niektóre sytuacje, o których tu mówimy, to bardzo ważna rzecz. Czy możesz porozmawiać z tymi dwiema rzeczami dla mnie?
Shawn Rogers: Jasne, tak, absolutnie mogę. Wiesz, nasz ruch w tym kierunku był z pewnością iteracyjny i był to rodzaj procesu krok po kroku. Właśnie przygotowujemy się w nadchodzącym tygodniu do uruchomienia wersji 13.2 programu Statistica. I ma najnowsze aktualizacje wszystkich możliwości, o których dzisiaj mówimy. Ale wracając do wersji 13, rok temu, w październiku, ogłosiliśmy naszą zdolność do eksportowania modeli z naszej platformy i nazwaliśmy ją wówczas NDAA. Skrót oznacza natywną architekturę rozproszonej analizy. Zrobiliśmy to, poświęcając dużo czasu, energii i koncentrując się na otwarciu naszej platformy z możliwością wykorzystania jej jako centralnego centrum dowodzenia dla twoich zaawansowanych analiz, ale także do wdrożenia z tego miejsca. Po pierwsze, Robin, które wdrożyliśmy, zrobiliśmy naprawdę świetny dodatek do platformy wokół uczenia maszynowego. Mieliśmy więc możliwość wdrożenia ze Statistica do Microsoft Azure Azure Cloud, aby wykorzystać moc platformy Azure do wspomagania uczenia maszynowego, jak wiadomo, jest bardzo intensywny i jest to świetny sposób na wykorzystanie technologii chmurowych. I to był pierwszy kawałek.
Teraz tutaj eksportowaliśmy nasze modele na platformę Azure i korzystaliśmy z platformy Azure, aby je uruchomić, a następnie wysyłaliśmy dane lub wyniki z powrotem na platformę Statistica. Następnie przeszliśmy na inne języki, z których chcieliśmy eksportować, i oczywiście jeden z nich, jakim jest Java, otwiera nam drzwi do rozpoczęcia eksportu naszych modeli na zewnątrz do innych lokalizacji, takich jak Hadoop, więc dało to także gra tam.
Na koniec skupiliśmy się na możliwości przesyłania naszych modeli z tą wersją do baz danych. To była pierwsza iteracja i szczerze mówiąc, końcową grą był IoT, ale nie było nas jeszcze w wersji 13 w październiku zeszłego roku. Od tamtej pory dotarliśmy na miejsce i ma to związek ze zdolnością do robienia wszystkich rzeczy, o których właśnie wspomniałem, ale z posiadaniem jakiegoś urządzenia transportowego. I wracając do pytania Deza, wiesz, jakie jest wyzwanie i jak to zrobić, gdy mamy wszystkie te analizy? Cóż, używamy Boomi jako pewnego rodzaju centrum dystrybucji, a ponieważ jest w chmurze i ponieważ jest tak potężny, jak wspomniałem wcześniej, jest platformą integracji danych, ale jest także platformą integracji aplikacji i wykorzystuje JVM, aby pozwolić nam zaparkować i pracować w dowolnym miejscu, w którym można wylądować maszynę wirtualną Java. Właśnie to otworzyło drzwi dla wszystkich tych bram i platform obliczeniowych i serwerów brzegowych, ponieważ wszystkie mają obliczenia i platformę, na której można uruchomić JVM. A ponieważ możemy uruchomić JVM w dowolnym miejscu, Boomi zmieniło stanowi wspaniałą dystrybucję i, używając mojego wcześniejszego słowa, urządzenie do aranżacji.
I to staje się naprawdę ważne, ponieważ wszyscy wiemy, myślę, że scenariusz samolotu przed chwilą był świetny, i wspomniałem, wiesz, producenci tacy jak Shire, którzy mają dziesięć tysięcy czujników w jednej ze swoich fabryk, ty w pewnym momencie zacznę zajmować się rodzajem centralnego podejścia do zaawansowanej analityki. Bycie ad hoc nie działa już tak naprawdę. Kiedyś, gdy liczba modeli i algorytmów, które działaliśmy, była minimalna, ale teraz jest maksymalna. W organizacji są tysiące. Tak więc, część naszej platformy jest oparta na serwerze, a kiedy masz nasze oprogramowanie dla przedsiębiorstw, masz również możliwość dostrajania, oceniania i zarządzania swoimi modelami w całym środowisku. To także część tej aranżacji. Musieliśmy mieć warstwę Robin, która nie tylko pozwoliła ci zdobyć tam model, ale także dała ci możliwość ulepszania modeli i ich wymiany na bieżąco tak często, jak potrzebujesz, ponieważ nie można tego zrobić ręcznie. Nie można chodzić po rafinerii za pomocą kciuka próbującego przesłać modele do bram. Musisz mieć między sobą system transportu i zarządzania, a więc połączenie Statistica i Boomi daje to naszym klientom.
Dr Robin Bloor: Tak. Cóż, powiem bardzo krótko, ale wiesz, to oświadczenie, które zostało wcześniej wypowiedziane na temat jeziora danych i pomysłu gromadzenia petabajtów w dowolnym miejscu, oraz fakt, że ma ono grawitację. Wiesz, kiedy zacząłeś mówić o orkiestracji, zaczęło mi się zastanawiać nad bardzo prostym faktem, że umieszczenie jeziora danych, które jest bardzo duże w jednym miejscu, prawdopodobnie oznacza, że faktycznie musisz wykonać jego kopię zapasową i prawdopodobnie oznacza to, że i tak musisz przenieść dużo danych. Wiesz, prawdziwa architektura danych jest, moim zdaniem, o wiele więcej, znacznie bardziej w kierunku, o którym mówisz. To, co jest rozprowadzanie go w rozsądnych miejscach, prawdopodobnie powiedziałbym. I wygląda na to, że masz do tego bardzo dobrą zdolność. Mam na myśli, że jestem dobrze poinformowany o Boomi, więc jest to w pewien sposób prawie niesprawiedliwe, że go widzę, a może publiczność nie. Jednak moim zdaniem Boomi jest tak niezbędny, ponieważ ma możliwości aplikacji. A także dlatego, że prawda jest taka, że nie wykonujesz tych obliczeń analitycznych bez chęci wykonania czegoś z jakiegoś powodu. I Boomi bierze w tym udział, prawda?
Shawn Rogers: Tak, absolutnie. I jak wiadomo z poprzednich rozmów, Statistica ma w pełni funkcjonalny silnik reguł biznesowych. I myślę, że to naprawdę ważne, kiedy dochodzimy do tego, dlaczego to robimy. Wiesz, żartowałem z góry, że naprawdę nie ma żadnego powodu, aby robić IoT, chyba że zamierzasz analizować, wykorzystywać dane do podejmowania lepszych decyzji lub podejmowania działań. Dlatego skupiliśmy się nie tylko na tym, aby wprowadzić model na rynek, ale także na tym, że możemy go tagować - zestaw reguł. A ponieważ Boomi jest tak niezawodny w swoich możliwościach przenoszenia rzeczy z jednego miejsca na drugie, w atomie Boomi możemy również osadzić zdolność do wyzwalania, ostrzegania i podejmowania działań.
Właśnie dlatego zaczynamy uzyskiwać taki wyrafinowany widok danych IoT, w którym mówimy: „Dobra, te dane są warte wysłuchania”. Ale naprawdę, wiedząc, że „światło jest włączone, światło jest włączone, światło jest włączone, światło jest włączone ”nie jest tak interesujące, kiedy gaśnie światło, gaśnie czujnik dymu lub kiedy coś, co dzieje się w naszym procesie produkcyjnym, wychodzi poza specyfikację. Kiedy to nastąpi, chcemy być w stanie podjąć natychmiastowe działania. W tym momencie dane stają się tutaj prawie wtórne. Ponieważ nie jest tak ważne, abyśmy zapisali wszystkie te sygnały: „w porządku, w porządku, w porządku”, ważne jest, że zauważamy „Hej, to źle” i podjęliśmy natychmiastowe działania. Niezależnie od tego, czy jest to wysyłanie wiadomości e-mail do kogoś, czy możemy zaangażować wiedzę specjalistyczną w dziedzinie, czy też uruchamiamy szereg innych procesów w celu podjęcia natychmiastowych działań, niezależnie od tego, czy są to działania naprawcze, czy w odpowiedzi na informacje. I myślę, że właśnie dlatego musisz mieć taki zorganizowany pogląd na to. Nie możesz skupić się na obsłudze algorytmów w dowolnym miejscu. Musisz być w stanie je koordynować i koordynować. Musisz być w stanie zobaczyć, jak sobie radzą. I naprawdę, co najważniejsze, dlaczego do cholery miałbyś to zrobić, jeśli nie możesz dodać okazji do podjęcia natychmiastowych działań przeciwko danym?
Dr Robin Bloor: Dobra, Rebecca, uważam, że masz pytania od publiczności?
Rebecca Jóźwiak: Tak. Mam mnóstwo pytań od odbiorców. Shawn, wiem, że nie chciałeś zbyt długo trzymać się końca godziny. Co myślisz?
Shawn Rogers: Jestem szczęśliwy. Śmiało. Mogę odpowiedzieć na kilka.
Rebecca Jóźwiak: Zobaczmy. Wiem, że jedną z rzeczy, o których wspomniałeś, było to, że Internet Rzeczy jest na wczesnym etapie i ma pewien stopień dojrzałości, który musi się odbyć, i w pewnym sensie przemawia do tego pytania zadanego przez jednego z uczestników. Czy struktura IPv6 będzie wystarczająco solidna, aby uwzględnić wzrost IoT w ciągu najbliższych pięciu czy dziesięciu lat?
Shawn Rogers: Och, pozwolę Dezowi powtórzyć moją odpowiedź, ponieważ myślę, że jest bliżej tego rodzaju informacji, którymi jestem. Ale zawsze myślałem, że jesteśmy na bardzo szybkiej drodze, aby zgiąć i złamać większość struktur, które mamy na swoim miejscu. I chociaż myślę, że dodanie tego rodzaju specyfikacji lub kierunek, w którym podążamy z frameworkami IPv6, jest ważne, i otwiera nam drzwi do posiadania o wiele większej liczby urządzeń i możliwości zaoferowania wszystkiego, co możemy chcę podać adres. Myślę, że wszystko, co czytam i widzę z moimi klientami oraz liczba wymaganych adresów, myślę, że w pewnym momencie spowoduje kolejną zmianę tego krajobrazu. Ale tak naprawdę nie jestem ekspertem od sieci, więc nie mogę powiedzieć w stu procentach, że w pewnym momencie go złamiemy. Ale moje doświadczenie mówi mi, że w pewnym momencie zamierzamy zakłócić ten model.
Rebecca Jóźwiak: Nie byłbym zaskoczony. Myślę, że ramy są w pewnym sensie przełamywane pod ciężarem różnych rzeczy. I to jest po prostu logiczne, prawda? To znaczy, nie możesz wysłać e-maila z maszyną do pisania. Inny uczestnik pyta: „Czy możesz użyć frameworka Hadoop?”, Ale myślę, że mógłbym to zmienić, aby powiedzieć, w jaki sposób używałbyś frameworku Hadoop do rozproszonej analizy?
Shawn Rogers: Cóż, Robin wyświadczył mi przysługę, zadając mi historyczne pytanie, a więc od wersji 13 około rok temu dla Statistica, mieliśmy możliwość wypędzenia modeli z naszego systemu i przeniesienia go do Hadoop. I ściśle współpracujemy ze wszystkimi wielkimi smakami Hadoop. Mamy naprawdę świetne historie sukcesu dotyczące umiejętności pracy z Clouderą jako jednej z głównych dystrybucji Hadoop, z którymi współpracujemy. Ale ponieważ możemy generować dane wyjściowe w Javie, daje nam to możliwość otwarcia się i umieszczenia naszych danych analitycznych w dowolnym miejscu. Umieszczenie ich w klastrze Hadoop jest dla wielu naszych klientów czymś, co robimy normalnie, regularnie i codziennie. Krótka odpowiedź brzmi tak, absolutnie.
Rebecca Jóźwiak: Doskonale. I zamierzam rzucić jeszcze jeden na ciebie i pozwolić ci kontynuować wakacje. Inny uczestnik pyta, dzięki analityce IoT i uczeniu maszynowemu, czy uważasz, że wszystkie dane muszą być przechowywane do celów historycznych i jak wpłynie to na architekturę rozwiązania?
Shawn Rogers: Cóż, nie sądzę, że wszystkie dane muszą być przechowywane. Uważam jednak, że bardzo interesująca jest możliwość rozrywki i słuchania dowolnego źródła danych, które chcemy w naszej organizacji, niezależnie od tego, skąd pochodzi. I myślę, że zmiany, które zaobserwowaliśmy na rynku w ciągu ostatnich kilku lat, pozwoliły nam przyjąć podejście oparte na wszystkich danych i wydaje się, że jest to naprawdę opłacalne. Ale będzie inaczej dla każdej firmy i każdego przypadku użycia. Wiesz, kiedy patrzymy na dane zdrowotne, teraz jest wiele problemów regulacyjnych, wiele problemów związanych ze zgodnością, o które należy się martwić, i to powoduje, że zapisujemy dane, których inne firmy mogą nie zrozumieć, dlaczego trzeba je zapisać, prawda ? W przypadku procesów produkcyjnych, dla wielu naszych klientów produkcyjnych, prawdziwą zaletą jest możliwość historycznego zbadania procesów i spojrzenia wstecz na duże ilości tych danych, aby wyciągnąć z nich wnioski i zbudować z nich lepsze modele.
Myślę, że wiele danych będzie musiało być przechowywanych i wydaje mi się, że mamy rozwiązania, które sprawiają, że są one dziś bardziej ekonomiczne i skalowalne. Ale jednocześnie uważam, że każda firma znajdzie wartość w danych, których nie musi utrzymywać na poziomie atomowym, ale będzie chciała analizować w czasie rzeczywistym i podejmować decyzje w celu stymulowania innowacji w ramach ich towarzystwo.
Rebecca Jóźwiak: Dobra. Nie, publiczność, nie dotarłem dzisiaj do wszystkich pytań, ale przekażę je Shawnowi, aby mógł bezpośrednio do ciebie dotrzeć i odpowiedzieć na te pytania. Ale dziękuję wszystkim za udział. Dzięki bardzo Shawn Rogers z Dell Statistica i od wszystkich naszych analityków, Dez Blanchfield i dr Robin Bloor. Możesz znaleźć archiwum tutaj na insideanalysis.com, SlideShare, zaczęliśmy ponownie umieszczać nasze rzeczy tam ponownie, a my odnawiamy nasz YouTube, więc też go tam szukaj. Wielkie dzięki. I po tym pożegnam cię i do zobaczenia następnym razem.