Spisu treści:
Oczekuje się, że fałszywe wiadomości będą istotnym czynnikiem w nadchodzących wyborach prezydenckich, nie wspominając już o jej ogólnym korodującym wpływie na nasz dyskurs publiczny w ogóle. W dzisiejszym połączonym społeczeństwie rozróżnianie faktów od fikcji staje się coraz trudniejsze, dlatego niektórzy badacze zaczynają skupiać się na sile sztucznej inteligencji, aby rozwiązać ten problem.
Istnieje oczywiście nadzieja, że maszyny lub dokładniej algorytmy będą lepsze niż ludzie w wykrywaniu kłamstw. Ale czy to realistyczne oczekiwanie, czy tylko kolejny przypadek rzucenia technologii na pozornie trudny problem?
Złapać złodzieja. . .
Jednym ze sposobów, w jaki badacze danych planują wyostrzyć wiedzę AI w tym obszarze, jest umożliwienie generowania fałszywych wiadomości. Allen Institute for AI na University of Washington opracował i publicznie wydał Grover, silnik przetwarzania języka naturalnego zaprojektowany do tworzenia fałszywych historii na wiele różnych tematów. Choć na początku może się to wydawać odwrotne od zamierzonych, jest to w rzeczywistości dość powszechna taktyka treningowa AI, w której jedna maszyna analizuje wydajność innej. W ten sposób strona analityczna może zostać przyspieszona znacznie szybciej niż poleganie na prawdziwych fałszywych wiadomościach. Instytut twierdzi, że Grover może już działać z 92% dokładnością, ale ważne jest, aby pamiętać, że jest biegły tylko w rozróżnianiu treści generowanych przez AI od treści generowanych przez ludzi, co oznacza, że inteligentna osoba może wciąż przekraść się na fałszywej historii przeszłości (Aby dowiedzieć się więcej, sprawdź Technologie walki z fałszywymi wiadomościami.)