Maszyny interpretują obrazy skanowania medycznego dokładniej niż lekarze, tłumaczą języki obce, a wkrótce mogą być w stanie prowadzić samochody bezpieczniej niż ludzie. Jednak nawet najlepsze algorytmy mają swoje słabości.
Weźmy na przykład automatyczny pojazd odczytujący znak drogowy. Jeśli ktoś umieści na nim naklejkę, nie rozproszy to uwagi ludzkiego kierowcy. Ale maszyna może łatwo zostać zdezorientowana, ponieważ znak różni się od tych, na których była szkolona.
„Chcielibyśmy, aby algorytmy były stabilne w tym sensie, że jeśli wejście zostanie nieznacznie zmienione, wynik pozostanie prawie taki sam. Rzeczywistość wiąże się z wszelkiego rodzaju szumami, które ludzie są przyzwyczajeni ignorować, podczas gdy maszyny mogą się pogubić,” mówi profesor Amir Yehudayoff z Uniwersytetu Kopenhaskiego, który kieruje grupą badawczą.
Badacze matematycznie udowodnili, że poza prostymi problemami nie jest możliwe stworzenie algorytmów uczenia maszynowego, które zawsze będą stabilne.
„Chciałbym zauważyć, że nie pracowaliśmy bezpośrednio nad aplikacjami samochodów autonomicznych. Jednak wydaje się to problemem zbyt skomplikowanym, aby algorytmy zawsze były stabilne,” mówi Yehudayoff, dodając, że niekoniecznie oznacza to poważne konsekwencje dla rozwoju samochodów autonomicznych.
Z czasem AI będzie bardziej skutecznie reagować na odchylenia od normy, niemniej jednak należy do masowego wdrożenia sztucznej inteligencji podchodzić z ostrożnością.