Google kontra generatywne AI: Czy to nie jest ironiczne?

Badacze Google opublikowali niedawno artykuł, który ostrzega przed problemem, który sami stworzyli. Twierdzą, że generatywne AI niszczy ogromne obszary internetu poprzez generowanie fałszywej treści. Co ciekawe, Google nieustannie promuje tę samą technologię wśród swojej ogromnej liczby użytkowników.

Auta z AI za kółkiem?

Badanie, które wciąż czeka na recenzje, wykazało, że większość użytkowników generujących AI wykorzystuje tę technologię do "zacierania granic między autentycznością a manipulacją", wrzucając do sieci fałszywe lub podrobione treści AI, takie jak zdjęcia czy filmy.

Naukowcy analizując wcześniej opublikowane badania na temat generatywnych AI i około 200 artykułów na temat nadużywania generatywnych AI, stwierdzili: "Manipulacja ludzkim podobieństwem i fałszowanie dowodów leżą u podstaw najbardziej powszechnych taktyk zastosowań w realnych przypadkach nadużyć". W większości przypadków te działania miały wyraźny cel wpływania na opinię publiczną, umożliwienia oszustwa, działalności frauderskiej lub generowania zysków.

Coraz zaawansowane AI

Kolejnym problemem jest to, że systemy generujące AI są coraz bardziej zaawansowane i łatwo dostępne - "wymagają minimalnej wiedzy technicznej", co według naukowców zniekształca zbiorowe rozumienie rzeczywistości społeczno-politycznej czy konsensusu naukowego.

W raporcie brakuje jakiejkolwiek wzmianki o gafach Google związanych z wykorzystaniem tej technologii, które, jako jednej z największych firm na świecie, były czasami ogromne.

Konsekwencje nadużywania technologii AI

Osobom czytającym raport trudno nie dojść do wniosku, że "niewłaściwe użycie" generatywnego AI jest tak naprawdę zgodne z założonym celem tej technologii. Ludzie używają generatywnego AI do tworzenia dużych ilości fałszywej treści, co w rezultacie zalewa internet sztuczną treścią.

Na tę sytuację ma wpływ również sama firma Google, która zezwala na rozprzestrzenianie się tej fałszywej treści, a często sama jest źródłem fałszywych informacji.

Podsumowanie

Tymczasem, zgodnie z wynikami badań, wydolność ludzi do rozróżniania prawdy od kłamstwa jest coraz bardziej narażona. Jak stwierdzają badacze: "Produkcja dużej ilości niskiej jakości, spamu i niebezpiecznej treści syntetycznej zwiększa sceptycyzm ludzi wobec informacji cyfrowych i obciąża ich dodatkowymi zadaniami weryfikacyjnymi". I co najbardziej niepokojące, z powodu ogromnej ilości fałszywej treści generowanej przez AI zdarza się, że "osoby publiczne mogą wyjaśniać niekorzystne dowody jako wygenerowane przez AI, przerzucając ciężar dowodzenia na inne strony w kosztowny i niewydajny sposób". Jak pokazuje raport, firmy, takie jak Google, umieszczając AI w każdym swoim produkcie, powodują, że problem tylko się pogłębia.

Udostępnij ten artykuł
Link został skopiowany!