P:
W jaki sposób prawo Moore'a przyczyniło się do obecnej rewolucji AI?
ZA:Kuszące jest myślenie o dzisiejszym postępie w sztucznej inteligencji jako głównie związanym z rozwiązywaniem problemów logicznych i zorientowanych na dane, ale dla firm próbujących wprowadzać innowacje i iść naprzód pomocne może być cofnięcie się i zastanowienie się nad tym, jak coraz mocniejszy sprzęt ma również przyczynił się do dzisiejszej funkcjonalności uczenia maszynowego i sztucznej inteligencji.
Niektóre z bardziej oczywistych sposobów, w jakie prawo Moore'a przyczyniło się do rozwoju sztucznej inteligencji, są oczywiste dla każdego, kto patrzy na IT od 30 lat. Po pierwsze, faktyczne scentralizowane komputerowe stacje robocze i centra danych, które pracują na zestawach danych sztucznej inteligencji, są mniejsze niż byłyby we wcześniejszych czasach obliczeń - i to robi różnicę. Gdyby proste komputery mainframe nadal zajmowały przestrzeń zestawu pralko-suszarki, byłoby to, co zrozumiałe, tłumić zwinny rozwój zwinnego rozwoju wszelkiego rodzaju nowych technologii.
Jednak, co ważniejsze, osiągnięcia firm oparte na prawie Moore'a pod względem wydajności pozwoliły na rozpowszechnienie bardzo małych mobilnych urządzeń do gromadzenia danych. Najlepszym przykładem są smartfony, ale prawo Moore'a dostarczyło nam również aparaty cyfrowe, odtwarzacze MP3 i wiele innych drobnych urządzeń, które wszystkie zbierają własne dane w zadziwiającym tempie. Teraz internet rzeczy doładowuje ten proces inteligentnymi urządzeniami kuchennymi i wszelkiego rodzaju innymi bardzo nowoczesnymi urządzeniami, które opierają się na idei, że urządzenia zawierające chipy są na tyle małe, że można je umieścić w prawie wszystkim.
Nie są to jednak jedyne sposoby, w jakie prawo Moore'a przyczyniło się do rozwoju nowego uczenia maszynowego i postępu sztucznej inteligencji. W recenzji technologii MIT pisarz Tom Simonite twierdzi, że prawo Moore'a było również przydatne jako rodzaj „urządzenia koordynującego”, które służyło do projekcji tego, co pojawi się na rynku w przyszłości, aby dać programistom i innym pozory drogi mapa i wskazówki dotyczące przyszłych innowacji.
Kolejna interesująca perspektywa pochodzi od Niel Viljoen, który mówi o tym, że prawo Moore'a może nadal mieć kluczowe znaczenie dla nowych systemów opartych na chmurze i pojawienia się zupełnie nowej technologii sztucznej inteligencji.
Argumentem Viljoena wydaje się być to, że dodanie rdzeni ogólnego przeznaczenia do systemów skalowania nie wystarczy, aby naprawdę połączyć sprzęt z siecią w sposób kompleksowy, co prowadzi do wąskich gardeł. Odpowiednim pomysłem jest to, że modele konwergencji przyspieszą wszelkiego rodzaju funkcje systemów intensywnie wykorzystujących dane. Innymi słowy, ponieważ systemy komputerowe stale skalowały wykorzystanie danych zgodnie z tym, co mogły zmieścić w sprzęcie, konstruktorzy nigdy nie zajęli się włączeniem niektórych związanych z tym funkcji rozwojowych, takich jak przetwarzanie obrazu, szyfrowanie, renderowanie wideo itp.
W rezultacie nowoczesne centra danych stały się bardzo wydajne, ale nadal wymagają od zewnętrznych elementów niezbędnego przetwarzania - Viljoen zakłada przyszłe pojawienie się „systemów na chipie”, w których sprzęt z hiperkonwergencją ma wszystko, czego potrzebuje do wykonywania wszystkich funkcji sieciowych, usprawnić przepływy danych i sprawić, że systemy będą sprawne i potężne.
Ogólnie rzecz biorąc, prawo Moore'a pomogło w rozwoju IT i nadal pomaga w fundamentalny sposób. Jest to część modelu „science fiction jest obecny”, który pokazuje, jak daleko posunęła się ludzkość w budowaniu systemów danych w ciągu jednego lub dwóch stuleci.