Mówi: | dr Federico Germani |
Firma: | Instytut Etyki Biomedycznej i Historii Medycyny, Uniwersytet Zuryski |
Fake newsy stworzone przez sztuczną inteligencję trudne do rozpoznania. Wydają się internautom bardziej wiarygodne od wiadomości tworzonych przez ludzi
Sztuczna inteligencja jest w stanie coraz lepiej imitować teksty pisane przez ludzi, a nawet tworzyć takie, które są łatwiejsze do zrozumienia – dowodzą naukowcy z Uniwersytetu Zuryskiego. Co istotne odbiorcy nie są w stanie odróżnić informacji tworzonych przez sztuczną inteligencję. Zarówno te prawdziwe, jak i fałszywe wydają im się bardziej wiarygodne niż te pisane przez ludzi. Rodzi to obawy o wykorzystanie sztucznej inteligencji do szerzenia dezinformacji.
Autorzy badania opublikowanego w „Science Advances” zwracają uwagę na to, że postęp w rozwoju generatorów SI zbiegł się z pandemią COVID-19 i trwającą wówczas infodemią, czyli natłokiem różnych informacji (w tym fałszywych). Powstały więc obawy dotyczące niewłaściwego wykorzystania sztucznej inteligencji. Generowanie i szerzenie z jej pomocą dezinformacji może mieć negatywny wpływ na wiele dziedzin życia, w tym na ochronę zdrowia na świecie. Aby sprawdzić, jak tekst stworzony przez SI może wpłynąć na zrozumienie informacji przez odbiorców, naukowcy przyjrzeli się tweetom wytwarzanym przez GPT-3.
Badacze wygenerowali za pomocą GPT-3 tweety zawierające informacje lub dezinformacje na różne tematy, w tym dotyczące szczepionek, technologii 5G, COVID-19 i teorii ewolucji. Zestawili je z wiadomościami napisanymi przez ludzi. Następnie stworzyli ankietę i poprosili o jej wypełnienie ok. 700 respondentów z kilku krajów, w wieku średnio od 42 do 72 lat, o podobnym wykształceniu. Pierwszym pytaniem było to, czy dany tweet wygląda na syntetyczny (wygenerowany przez GPT-3), czy organiczny (stworzony przez człowieka). W drugim użytkownicy oceniali, czy informacje zawarte w tweecie były prawdziwe, czy nieprawdziwe pod względem naukowym.
– Informacje wygenerowane przez sztuczną inteligencję były dla respondentów bardziej przekonujące. Ludzie oceniali lepiej prawdziwość informacji wytworzonych przez SI w porównaniu do tych stworzonych przez człowieka. Poza tym ankietowani mieli tendencję do ufania w większym stopniu nieprawdziwym informacjom wygenerowanym przez SI w porównaniu do tych pochodzących od ludzi. Sprawia to, że GPT jest swego rodzaju mieczem obusiecznym, ponieważ ma on potencjalnie pozytywne zastosowania w praktyce, przy jednoczesnej możliwości negatywnych zastosowań do generowania przekonujących fałszywych informacji – mówi agencji Newseria Innowacje dr Federico Germani z Instytutu Etyki Biomedycznej i Historii Medycyny Uniwersytetu Zuryskiego.
Autorzy badania przeanalizowali też potencjał sztucznej inteligencji do identyfikowania dezinformacji. Poprosili GPT-3 o ocenę, które z tweetów są prawdziwe, a które wprowadzają w błąd. SI, podobnie jak respondenci, miał większe trudności z oceną dokładności informacji.
– Zgodnie z wynikami naszego badania nie ma możliwości rozróżnienia pomiędzy informacjami pochodzącymi od człowieka a tymi wygenerowanymi przez GPT-3. Możliwe, że ludzie, którzy opanowują tę technologię i korzystają z niej codziennie, będą mogli rozpoznać różnicę. Jednak nie jest to szczególnie istotne, ponieważ w perspektywie średnio- i długoterminowej w miarę rozwoju nowych modeli i tak nie będziemy w stanie rozróżnić tekstu stworzonego przez człowieka i przez sztuczną inteligencję – ocenia dr Federico Germani.
Naukowcy proponują zmianę dotychczasowego podejścia do modelu skutecznej komunikacji i oceny informacji, zgodnie z którym człowiek wytwarza informacje, a sztuczna inteligencja pomaga w ich ocenie. Są zdania, że dobrze skrojoną kampanię informacyjną można stworzyć, przekazując wskazówki do SI, która jest w stanie lepiej niż człowiek napisać łatwiejsze w odbiorze teksty, ale dokładność wygenerowanych przez nią informacji powinna być sprawdzona przez przeszkolonych ludzi. Ten model komunikacji może mieć szczególne znaczenie w sytuacji, w której potrzeba jasnej i szybkiej komunikacji z dużymi grupami społeczeństwa.
– Jest to jedno z pierwszych opracowań wskazujących na problem sztucznej inteligencji w kontekście dezinformacji. Warto zaznaczyć, że nasze badanie odbywa się w warunkach doświadczalnych, a nie rzeczywistych, dlatego jest ono ważne dla rozumienia wpływu fałszywych informacji generowanych przez SI na społeczeństwo poprzez obserwację obiegu nieprawdziwych informacji wytworzonych przez SI w mediach społecznościowych i reakcji ludzi na nie. Kolejnym etapem będzie rozumienie wpływu tego zjawiska na zachowania poszczególnych osób oraz na zdrowie jednostek i zdrowie publiczne. Jest to bardzo istotny nowy kierunek badań interakcji ludzi z informacjami w całkowicie nowym otoczeniu sterowanym przez sztuczną inteligencję – podkreśla badacz Uniwersytetu w Zurychu.
Podobne wnioski przedstawiają w swoim raporcie naukowcy z Georgetown University i Obserwatorium Internetu przy Uniwersytecie Stanforda, którzy po przeanalizowaniu możliwości zastosowań SI do szerzenia dezinformacji uważają, że propaganda z wykorzystaniem algorytmów będzie się nasilać. Przygotowanie społeczeństwa do właściwego odbioru informacji jest równie ważne, co współpraca między twórcami SI i platformami mediów społecznościowych, kontrola dostępu do sprzętu i technologii służących do budowy SI czy np. konieczność oznaczania treści wygenerowanych przez algorytm.
– Mamy do czynienia z nadmierną liczbą informacji, które są dostępne dla każdego do oceny, a wśród nich znajduje się sporo fałszywych informacji. Przy wykorzystaniu sztucznej inteligencji liczba fałszywych i prawdziwych informacji prawdopodobnie wzrośnie. Nie możemy myśleć, że mamy nad tym kontrolę – mówi dr Federico Germani. – W czasie pandemii COVID-19 przekonaliśmy się, że cenzura jest narzędziem, które może zostać wykorzystane do ograniczenia fałszywych informacji, ale jest to rozwiązanie mające pozytywne skutki w krótkiej perspektywie czasowej. W perspektywie średnio- i długoterminowej jest ona szkodliwa, prowadząc na przykład do ograniczonego zaufania wobec instytucji opieki zdrowotnej wydających zalecenia w zakresie zdrowia publicznego do przestrzegania w sytuacji kryzysowej. Dlatego musimy znaleźć inne strategie.
Zdaniem badacza jedyną szansą skutecznej walki z dezinformacją jest edukacja medialna odbiorców, aby na podstawie określonych cech danej wiadomości mogli ocenić, czy jest ona prawdziwa, czy też nie.
W polskiej infosferze w celu wypracowania standardów walki z dezinformacją powstał Kodeks Dobrych Praktyk opublikowany przez NASK. Jest on skierowany zarówno do dziennikarzy, osób publicznych, jak i do odbiorców. Zawarte w nim wskazówki pomagają zrozumieć procesy dezinformacyjne, rozpoznawać szkodliwe treści i zapobiegać ich rozpowszechnianiu.
Czytaj także
- 2025-06-10: Polska może dołączyć do globalnych liderów sztucznej inteligencji. Jednym z warunków jest wsparcie od sektora publicznego
- 2025-06-12: Nowe technologie mogą wspierać samoleczenie. Szczególnie pomocne są dane zbierane przez aplikacje i urządzenia mobilne
- 2025-05-27: SUV-y dominują rynek motoryzacyjny. Hyundai wprowadzi latem do sprzedaży nowy siedmioosobowy model
- 2025-05-28: Interakcja z firmą jest dla klientów równie ważna jak jej produkty. Biznes wykorzystuje do tego AI
- 2025-05-02: Im bliżej wyborów prezydenckich, tym więcej dezinformacji. Polacy nie umieją jeszcze jej rozpoznawać
- 2025-04-14: Nowe technologie podstawą w reformowaniu administracji. Będą też kluczowe w procesie deregulacji
- 2025-04-15: Obciążenia regulacyjne uderzają w branżę nowych technologii i start-upy. To może hamować innowacje
- 2025-04-16: Sztuczna inteligencja napędza innowacje, ale pochłania ogromne ilości prądu. Rośnie potrzeba bardziej energooszczędnych rozwiązań
- 2025-03-03: Unia Europejska spóźniona w wyścigu AI. Eksperci apelują o szybsze inwestycje i zaprzestanie regulacji
- 2025-03-13: Inwestycje w sztuczną inteligencję na bardzo niskim poziomie. Potencjał polskich kadr nie jest wykorzystywany
Kalendarium
Więcej ważnych informacji
Jedynka Newserii

Jedynka Newserii

Finanse

Europosłowie za wydłużeniem finansowania krajowych planów odbudowy o 1,5 roku. Apelują o większą przejrzystość wydatków
Instrument na rzecz Odbudowy i Zwiększania Odporności (RRF) – uruchomiony po pandemii COVID-19 – wygasa w sierpniu 2026 roku. Europosłowie w przyjętej niedawno rezolucji postulują, by przedłużyć ten termin o 18 miesięcy dla kluczowych projektów bliskich ukończenia. To szczególnie ważne dla Polski, która przez trzy lata – przez spór poprzedniego rządu z Komisją Europejską – miała zablokowany dostęp do środków z Krajowego Planu Odbudowy (KPO). Jednocześnie rezolucja wzywa do większej przejrzystości wydawanych funduszy.
Polityka
Prof. G. Kołodko: Druga prezydentura Trumpa zmienia Amerykę i świat na gorsze. Nie przyczynia się do rozwiązywania fundamentalnych światowych problemów

Zdaniem byłego wicepremiera i ministra finansów, prof. Grzegorz Kołodki, trumpizm wzmacnia pewne trendy nacjonalizmu, populizmu ekonomicznego i handlowego nie tylko w Ameryce, ale także w innych państwach. W ocenie ekonomisty Trump i trumpizm będą mieli negatywne skutki dla światowych procesów demograficznych, społecznych, kulturowych i ekonomicznych. Prezydentura Trumpa nie skupia się na rozwiązywaniu najważniejszych światowych problemów, takich jak m.in. migracja, zimna wojna, czy też ocieplenie klimatu.
Konsument
Branża opakowań nie traktuje unijnych regulacji jako zagrożenia. Widzi w nich impuls do rozwoju

W UE co roku wytwarza się ponad 2,2 mld t odpadów. Aby ograniczyć ich ilość, promowane jest przechodzenie na bardziej zrównoważony model, czyli gospodarkę o obiegu zamkniętym. W ramach pakietu zmian prawnych ograniczających negatywny wpływ działalności człowieka na środowisko nacisk położony jest w dużej mierze na producentów opakowań. Przedstawiciele branży podkreślają, że nowe regulacje to dla nich nie tylko nowe obowiązki, ale też okazja na zbudowanie przewagi konkurencyjnej.
Partner serwisu
Szkolenia

Akademia Newserii
Akademia Newserii to projekt, w ramach którego najlepsi polscy dziennikarze biznesowi, giełdowi oraz lifestylowi, a także szkoleniowcy z wieloletnim doświadczeniem dzielą się swoją wiedzą nt. pracy z mediami.