Narodowy Instytut Standaryzacji i Technologii (NIST) wypuścił na świat naglący raport mający na celu wsparcie obrony przed narastającym zagrożeniem dla systemów sztucznej inteligencji (AI). Jak wyjaśnia raport, technika ta znana jako „adversarial machine learning", używana jest przez atakujących do wprowadzania w błąd systemy AI dzięki manipulacji, która może przynieść katastrofalne skutki.
Tytułowany "Adversarial Machine Learning: A Taxonomy and Terminology of Attacks and Mitigations", raport zawiera szczegółowy i uporządkowany przegląd sposobów, w jakie przeprowadzane są takie ataki, kategoryzując je na podstawie celów, możliwości i wiedzy napastników na temat atakowanego systemu AI. Jak tłumaczy NIST, atakujący mogą celowo konfundować lub nawet „truć" systemy sztucznej inteligencji, aby je uszkodzić. Te ataki wykorzystują słabostki w sposobie, w jaki systemy AI są rozwijane i wdrażane.
Raport zwraca uwagę między innymi na ataki typu "data poisoning", w wyniku których przeciwnicy manipulują danymi używanymi do trenowania modeli AI. "Najnowsze prace pokazują, że manipulowanie danych może być wprowadzane na taką skalę, że przeciwnik o ograniczonych zasobach finansowych może kontrolować część publicznych zbiorów danych używanych do szkolenia modelu", ostrzega raport. Niepokojącym problemem, na który zwraca uwagę NIST, są także "backdoor attack", w wyniku których w szkoleniowych danych są umieszczane sygnały wywołujące później specyficzne błędy klasyfikacji. Dokument przestrzega, że "przed atakami tego typu jest niezwykle trudno się bronić."
Podsumowanie
Podczas gdy AI ma potencjał do zmiany wielu sektorów, eksperci w dziedzinie bezpieczeństwa podkreślają konieczność ostrożności. Celem raportu NIST jest ustanowienie wspólnego języka i zrozumienia problemów związanych z bezpieczeństwem AI. Ten dokument prawdopodobnie posłuży jako ważne źródło dla społeczności zajmującej się bezpieczeństwem AI, gdy ta będzie pracować nad zaradzeniem nowo pojawiającym się zagrożeniom. Jedno jest pewne – wchodzimy w nową epokę, w której systemy AI będą potrzebowały znacznie bardziej solidnej ochrony, zanim będą mogły być bezpiecznie wdrożone w różnych sektorach.