Dom Bezpieczeństwo W jaki sposób robot Sophia z Arabii Saudyjskiej stawia nowe, przerażające pytania dotyczące cyberbezpieczeństwa?

W jaki sposób robot Sophia z Arabii Saudyjskiej stawia nowe, przerażające pytania dotyczące cyberbezpieczeństwa?

Anonim

P:

W jaki sposób robot „Sophia” z Arabii Saudyjskiej rodzi przerażające pytania dotyczące cyberbezpieczeństwa?

ZA:

Jedną z najgorętszych nowych technologii sztucznej inteligencji jest robot naturalnej wielkości, stworzony, by wyglądać i zachowywać się jak kobieta.

Nazywa się Sophia i jest produkowana przez Hanson Robotics, firmę z siedzibą w Hongkongu. Dlaczego jest robotem Arabii Saudyjskiej? Ponieważ to państwo Zatoki przyznało Sophii kluczowe prawo człowieka: prawo do obywatelstwa.

Robi to wiele nagłówków i wywołuje różnego rodzaju debaty na temat szybkości sztucznej inteligencji i dlaczego powinniśmy się tym przejmować. Jednym z dużych problemów jest cyberbezpieczeństwo - w jaki sposób dziedzina cyberbezpieczeństwa dostosuje się do tego rodzaju nowych technologii?

Sophia i podobne technologie podnoszą kluczowe problemy związane z cyberbezpieczeństwem, których wcześniej nie rozwiązaliśmy. Oto niektóre z rzeczy, o których powinni myśleć profesjonaliści i eksperci, wprowadzając roboty wyglądające, mówiące i zachowujące się jak my.

Ogólnie rzecz biorąc, nowy realistyczny interfejs robota jest bardziej wyrafinowany niż ten, do którego byliśmy przyzwyczajeni w przeszłości, a to oznacza szereg nowych problemów związanych z cyberbezpieczeństwem. W świecie technologii ludzie mówią o „cienkiej powierzchni ataku”, na przykład w konfiguracji hiperwizora lub wbudowanej w zabezpieczenia po stronie serwera. Z drugiej strony chodzący, gadający robot to bardzo gruba powierzchnia ataku - ponieważ interfejsy są wyrafinowane, hakerzy i źli aktorzy mogą wykorzystywać luki w zabezpieczeniach na wiele sposobów.

Jednym z bardzo specyficznych problemów związanych z bezpieczeństwem cybernetycznym jest rodzaj zmieszania z różnorodnymi problemami społecznymi - można to nazwać „syndromem oszusta”, chociaż termin ten jest powszechnie używany do opisania podejrzanych działań nielegalnych badaczy danych.

Jakkolwiek to nazwiesz, problem polega na tym, że ponieważ sztuczna inteligencja imituje konkretnych ludzi z większym stopniem powodzenia, trudniej będzie się upewnić, że nie poddamy się niezwykle wyszukanym oszustwom, które zmuszają nas do kwestionowania prawdy. Już teraz możesz zobaczyć przykłady ludzi używających zupełnie nowych technologii do naśladowania znanych polityków, jak w tym filmie Baracka Obamy z komikiem Jordanem Peele. Problem oszusta będzie się powiększał i rozszerzał, gdy sztuczna inteligencja daje nam nowe okno na odwrotną inżynierię ludzkich myśli i zachowań.

Ponadto, ogólnie rzecz biorąc, te nowe interfejsy i możliwości nasilą już trwający wyścig zbrojeń między specjalistami ds. Bezpieczeństwa a hakerami. James Maude pisze o tym w artykule na temat Xconomy, nazywając AI „mieczem obosiecznym” dla cyberbezpieczeństwa i wskazując, że ogólnie atak jest mniej kosztowny niż obrona i zwracanie uwagi na obawy dotyczące prywatności i bezpieczeństwa. Ekstrapoluj niektóre z tych argumentów do robota AI, a zobaczysz, jak wraz z siłą i możliwościami pojawia się niebezpieczeństwo i potrzeba dyscypliny.

Kolejnym dużym problemem związanym z Sophią i robotami mobilnymi jest to, że są w ruchu.

Przyzwyczailiśmy się do technologii takich jak Watson firmy IBM, które wykonują prace poznawcze na wysokim poziomie, pozostając jednocześnie w centrum danych lub w stacjonarnej strukturze sprzętowej. Do tego jesteśmy przyzwyczajeni - od najwcześniejszych komputerów mainframe do dzisiejszych laptopów wszyscy używamy stacjonarnego sprzętu. Mamy teraz telefony komórkowe, ale tak naprawdę są to głównie komputery kieszonkowe. Czujące roboty-komputery są zadziwiająco różne. Są to autonomiczne ruchome elementy, które mogą być uzbrojone przez złośliwe strony. Artykuł Reutera, analizujący szybkość rozwiązywania problemów związanych z cyberbezpieczeństwem robotów, pokazuje, jak na przykład roboty mogą „skakać” lub poruszać się szybko i niewłaściwie, aby potencjalnie wyrządzić szkodę.

W końcu Sophia i jej roboty podnoszą mnóstwo problemów związanych z cyberbezpieczeństwem i innych problemów. Jak rozróżnimy legalną aktywność od oszukańczej i nielegalnej działalności, gdy interfejs nie jest siecią podłączoną cyfrowo, ale mobilnym sprzętem, który może nas oszukać, że działa na ludzki sposób? Przekroczenie tego mostu będzie wymagało ogromnej ilości pracy technologicznej i etycznej, aby upewnić się, że ludzie zatrzymają wodze i że wykorzystamy te bardzo potężne technologie dla dobra obywatelskiego.

W jaki sposób robot Sophia z Arabii Saudyjskiej stawia nowe, przerażające pytania dotyczące cyberbezpieczeństwa?