Czy tak popularne narzędzie jak AI może nieświadomie przyczyniać się do dyskryminacji? Według nowego, niepokojącego raportu, wydaje się, że szereg narzędzi sztucznej inteligencji jest nie tylko coraz bardziej zaawansowany, ale także częściej "żeruje" na rasistowskich stereotypach.
Badania nad językowymi modelami AI
Zespół badaczy technologicznych i lingwistycznych ujawnił wyniki swoich badań nad dużymi modelami językowymi. Według nich ChatGPT od OpenAI i Gemini od Google utrzymują rasistowskie stereotypy w kontekście użytkowników mówiących w dialekcie amerykańskim znanym jako African American Vernacular English, czyli AAVE. AAVE to językowy dialekt stworzony i używany przez Afroamerykanów.
Jak AI wpłynęło na dyskryminację?
Warto zauważyć, że AI nie jest w stanie świadomie dyskryminować - to narzędzie opiera się na algorytmach i działaniach programowanych przez ludzi. Stereotypy, które AI może nieświadomie propagować, są więc bezpośrednim wynikiem danych wejściowych przekazanych przez programistów. To oznacza, że zmiana w algorytmie wprowadzona przez twórców AI może mieć gigantyczny wpływ na propagowanie bądź eliminowanie uprzedzeń.
Skutki odkrycia
Obecne wyniki pokazują, że dyskryminacja ukryta w AI to realny problem. Uświadomienie sobie tego może mieć duże konsekwencje dla twórców AI, którzy mogą być pociągnięci do odpowiedzialności za nierówności. Ponadto, to odkrycie może prowadzić do narzucenia surowszych regulacji dotyczących tworzenia i implementacji nowych technologii AI.
Niewątpliwie, technologia AI ma potencjał do stworzenia lepszego i bardziej sprawiedliwego świata. Ale jak pokazuje ten raport, może również nieświadomie przyczyniać się do pogłębiania nierówności i dyskryminacji. Wszyscy deweloperzy i użytkownicy AI muszą być świadomi tego ryzyka i podjąć świadome kroki w celu zapewnienia, że ich narzędzia są programowane w sposób sprawiedliwy i pozbawiony uprzedzeń.