Nowa polityka platformy społecznościowej

TikTok, znany serwis społecznościowy dedykowany krótkim filmikom, planuje wprowadzić oznaczenia dla treści wygenerowanych za pomocą sztucznej inteligencji. Ma to na celu ograniczenie rozpowszechniania dezinformacji na platformie.

Wspólnie przeciw dezinformacji

Zgodnie z komunikatem firmy, sztuczna inteligencja otwiera nowe, fascynujące możliwości twórcze, ale może też wprowadzać użytkowników w błąd, zwłaszcza gdy ci nie zdają sobie sprawy, że materiał został wygenerowany przez sztuczną inteligencję. W związku z tym TikTok wprowadza nowe oznaczenia. Te działania są częścią szerszych wysiłków w branży technologicznej, których celem jest zapewnienie większego bezpieczeństwa w korzystaniu ze sztucznej inteligencji. Google już w ubiegłym roku ogłosiło, że planuje wprowadzić oznaczenia sztucznej inteligencji na swojej platformie YouTube oraz na innych platformach. Wykorzystanie technologii oznaczania treści generowanych przez sztuczną inteligencję zostało również podjęte podczas październikowego posiedzenia, na którym prezydent Stanów Zjednoczonych, Joe Biden, podpisał stosowne rozporządzenie.

Przełomowa współpraca

TikTok ogłosił, że rozpoczyna współpracę z Coalition for Content Provenance and Authenticity, co pozwoli platformie dodawać dodatkowe informacje do treści, umożliwiając natychmiastowe rozpoznanie i oznaczenie materiałów wygenerowanych przez sztuczną inteligencję. Na początku funkcja ta będzie dotyczyć obrazów i filmów, ale wkrótce zostanie rozszerzona na treści tylko audio.

Gwarancja autentyczności

Nowe rozwiązanie na TikToku to kolejny krok w zwalczaniu dezinformacji w świecie cyfrowym. Dzięki wprowadzonym oznaczeniom korzystanie z treści wygenerowanych przez sztuczną inteligencję stanie się znacznie bezpieczniejsze, a użytkownicy zyskają pewność, że przeglądane materiały są autentyczne i transparentne. TikTok tym samym kładzie nacisk na rozwój technologii, nie zapominając o potrzebie zapewnienia rzetelności i wiarygodności dostępnej na platformie zawartości.

Udostępnij ten artykuł
Link został skopiowany!