Spisu treści:
Specjaliści od cyberbezpieczeństwa patrzą na sztuczną inteligencję (AI) zarówno z entuzjazmem, jak i obawą. Z jednej strony ma potencjał dodania zupełnie nowych warstw obrony dla krytycznych danych i infrastruktury, ale z drugiej strony może być również użyty jako potężna broń do pokonywania tych zabezpieczeń bez pozostawiania śladu.
Jak każda technologia, sztuczna inteligencja ma zarówno mocne strony, jak i słabości, które można wykorzystać. Wyzwaniem dla dzisiejszych ekspertów ds. Bezpieczeństwa jest wyprzedzenie złych facetów, co powinno rozpocząć się od jasnego zrozumienia, w jaki sposób sztuczną inteligencję można wykorzystać jako broń ofensywną.
Hakowanie AI
Po pierwsze, mówi Nicole Kobie Wireda, powinniśmy uznać, że podobnie jak każde środowisko danych, sama AI może zostać zhakowana. W sercu każdego inteligentnego procesu znajduje się algorytm, który reaguje na otrzymywane dane. Naukowcy już pokazują, w jaki sposób sieci neuronowe można oszukać, że zdjęcie żółwia jest w rzeczywistości obrazem karabinu i jak prosta naklejka na znaku stop może spowodować, że autonomiczny samochód wjedzie prosto na skrzyżowanie. Tego rodzaju manipulacje są możliwe nie tylko po wdrożeniu sztucznej inteligencji, ale także podczas szkolenia, co potencjalnie daje hakerom możliwość zrobienia wszelkiego spustoszenia bez konieczności dotykania infrastruktury klienta.
