Logo Zephyrnet

Jak zawartość AI doprowadziła do obniżenia oceny niezawodności CNET

Data:

Wikipedia obniżyła ocenę niezawodności CNET po tym, jak publikacja techniczna, działająca od 30 lat, wykorzystywała sztuczną inteligencję do generowania wiadomości, które okazały się plagiatem i zawierały błędy. 

CNET opublikowany ponad 70 artykułów z zakresu porad finansowych napisanych przez sztuczną inteligencję w okresie od listopada 2022 r. do stycznia 2023 r. Artykuły zostały opublikowane pod tytułem „CNET Money Staff”.

Kontrola potwierdziła, że ​​wiele artykułów zawierało błędy rzeczowe, poważne pominięcia i plagiat treści. CNET zatrzymany publikowanie artykułów napisanych przez sztuczną inteligencję po tym, jak wiadomości ukazały się na początku 2023 r., ale według Wikipedii szkody już zostały wyrządzone.

Przeczytaj także: CNET zawiesza sztuczną inteligencję po opublikowaniu serii złych artykułów 

Obniżanie poziomu CNET opartego na sztucznej inteligencji

„CNET, zwykle uważany za zwykły serwis technologiczny [wiarygodne źródło], zaczął eksperymentalnie wyświetlać artykuły generowane przez sztuczną inteligencję, które są pełne błędów” – powiedział redaktor Wikipedii David Gerard, jak zgłaszane przez futuryzm.

„Jak dotąd eksperyment nie przebiega dobrze, choć nie powinien. Jeszcze żadnego nie znalazłem, ale każdy z artykułów, który znalazł się w artykule w Wikipedii, musi zostać usunięty”.

Gerard mówił, żeby rozpocząć a Spotkanie redaktorów Wikipedii w celu omówienia zawartości sztucznej inteligencji CNET w styczniu 2023 r. Redaktorzy wszechwiedzącego słownika internetowego prowadzą forum Wikipedia Reliable Sources lub Perennial Sources, na którym spotykają się, aby zdecydować, czy danemu źródłu wiadomości można ufać i wykorzystywać je w cytatach.

Na forum znajduje się tabela rankingowa serwisów informacyjnych według ich wiarygodności. Po wielu godzinach dyskusji redaktorzy zgodzili się, że Oparte na sztucznej inteligencji wersja CNET nie była godna zaufania i zdegradowała zawartość witryny do „ogólnie niewiarygodnej”.

„Cofnijmy się o krok i rozważmy, czego tu byliśmy świadkami” – powiedział inny redaktor Wikipedii, występujący pod pseudonimem „Bloodofox”.

„CNET wygenerowało mnóstwo treści za pomocą sztucznej inteligencji, wymieniło niektóre z nich jako napisane przez ludzi (!), stwierdziło, że wszystkie zostały zredagowane i sprawdzone przez ludzi, a następnie, gdy został złapany, wydało kilka „poprawek”, po czym nastąpiły ataki na dziennikarzy którzy o tym donieśli” – dodali.

Źródła wieloletnie Wikipedii strona dzieli oceny niezawodności CNET na trzy okresy: 1. Okres poprzedzający październik 2020 r., kiedy CNET uznawano za „ogólnie niezawodne”; oraz 2. października 2020 r. do października 2022 r., gdzie Wikipedia nie oceniła witryny podążającej za nią $ 500 mln przejęcia przez Red Ventures.

Trzeci okres trwa od listopada 2022 r. do chwili obecnej. W tym okresie Wikipedia obniżyła ocenę CNET do „ogólnie niewiarygodnego” źródła po tym, jak witryna zwróciła się ku sztucznej inteligencji, „aby szybko generować artykuły pełne nieścisłości faktycznych i linków partnerskich”.

Jak treści generowane przez sztuczną inteligencję doprowadziły do ​​obniżenia oceny niezawodności CNET
Tabela oceny niezawodności CNET z Wikipedii.

Google nie widzi problemu w AI

Według raportu Futurism sytuacja CNET zaczęła się pogarszać po przejęciu Red Ventures w 2020 r. Wikipedia podaje, że zmiana właściciela doprowadziła do „pogorszenia standardów redakcyjnych”, ponieważ Red Ventures rzekomo przedłożyła SEO nad jakość. Nie tylko CNET potajemnie eksperymentował ze sztuczną inteligencją w stajni.

Redaktorzy Wikipedii zwrócili także uwagę na inne problemy z niezawodnością dotyczące odrębnych witryn internetowych należących do Red Ventures, w tym Healthline i Bankrate. Według doniesień w witrynach edukacyjnych zamieszczano treści napisane przez sztuczną inteligencję bez ujawniania informacji i ludzkiego nadzoru.

„Red Ventures nie wyraziło się w najmniejszym stopniu przejrzyście w tej kwestii – firmę można w najlepszym razie określić jako oszukańczą” – stwierdził anonimowy redaktor Wikipedii Bloodofox.

W oświadczeniu dotyczącym obniżenia wersji Wikipedii i treści stworzonych przez sztuczną inteligencję CNET stwierdziło, że zapewnia „bezstronne wiadomości i porady dotyczące technologii”.

„Zaufano nam od prawie 30 lat dzięki naszym rygorystycznym standardom redakcyjnym i recenzjom produktów” – powiedział rzecznik Futurism. „Ważne jest, aby wyjaśnić, że CNET nie wykorzystuje aktywnie sztucznej inteligencji do tworzenia nowych treści. Chociaż nie mamy konkretnych planów ponownego uruchomienia, wszelkie przyszłe inicjatywy będą zgodne z naszą publiczną polityką dotyczącą sztucznej inteligencji”.

Decyzja Wikipedii podkreśla utrzymujące się obawy dotyczące wykorzystania sztucznej inteligencji do tworzenia artykułów w branży medialnej. Tymczasem, Google nie ma problemu z materiałem AI, o ile nie jest on używany do gry w algorytm wyszukiwania.

Według Google poradnictwo w przypadku treści generowanych przez sztuczną inteligencję firma twierdzi, że zawsze „wierzyła w moc sztucznej inteligencji, która może zmienić zdolność dostarczania przydatnych informacji”.

Google twierdzi, że jego systemy rankingowe skupiają się na jakości treści, a nie na sposobie ich tworzenia – czy to przez ludzi, czy przez sztuczną inteligencję. Ocenia wiedzę specjalistyczną, doświadczenie, autorytet i wiarygodność.

Firma zauważa jednak, że wykorzystywanie automatyzacji, w tym sztucznej inteligencji, do generowania treści, których głównym celem jest manipulowanie rankingiem w wynikach wyszukiwania, „stanowi naruszenie naszych zasad dotyczących spamu”.

spot_img

Najnowsza inteligencja

spot_img