MegaBaza edukacyjna Perspektywy®









Automatyczna weryfikacja treści pomoże w walce z dezinformacją. Dodawanie znaków wodnych publikowanym materiałom zapobiegnie dalszym manipulacjom. Czy wreszcie media społecznościowe staną się źródłem tylko prawdziwych informacji? Na straży prawdy w wirtualnym świecie staną naukowcy. W ramach międzynarodowego projektu DISSIMILAR naukowcy budują algorytmy wykorzystujące sztuczną inteligencję, które będą stanowić tamę przed zalewem fake newsów.

Media społecznościowe stały się głównym źródłem informacji na całym świecie. Szacuje się, że ponad 4,2 mld osób korzysta dziś z internetowych platform komunikacji, wśród których najpopularniejszymi są: YouTube, Facebook czy Twitter. Dzięki nim wiadomości błyskawicznie rozprzestrzeniają się po całym świecie, a każdy z użytkowników może być zarówno ich odbiorcą, jak i nadawcą.

Popularność i rola mediów społecznościowych szczególnie widoczna jest podczas ważnych wydarzeń, takich jak proces wyjścia Wielkiej Brytanii z Unii Europejskiej, wybory prezydenckie w USA, walka z pandemią COVID-19 czy wojna w Ukrainie. Niestety, pomimo wielu niezaprzeczalnych korzyści, media społecznościowe, jak dotąd, nie mają wbudowanych narzędzi weryfikujących prawdziwość przekazywanych informacji. Tym samym, opinia publiczna jest często kształtowana przez nieprawdziwe informacje (tzw. fake news). Coraz częściej są to działania celowe, stanowiące element wojny hybrydowej. Ilość preparowanych nieprawdziwych wiadomości wzrasta. Dane państwowego instytutu badawczego NASK, który przez jeden miesiąc kampanii #WłączWeryfikację przeanalizował 1500 profili w mediach społecznościowych, wykazują, że aż 30% zbadanych kont odpowiadało za działania mające na celu wprowadzenie odbiorców w błąd.

„Dezinformacja stanowi szczególny rodzaj zagrożenia, ponieważ wpływa bezpośrednio na opinię publiczną kształtując określone nastawienie wokół newralgicznych wydarzeń i zagadnień, takich jak cena energii, aneksja Krymu, wojna na Ukrainie itd. Strategiczne generowanie fake newsów stało się dzisiaj niezwykle skutecznym narzędziem wywierania wpływu, czy wręcz manipulowania, na opinię publiczną, a tym samym ma procesy polityczne. Systemy demokratyczne, są szczególnie narażone na tego typu działania. Stąd potrzeba przeciwdziałania” – podkreśla dr hab. Anna Visvizi, prof. SGH, Kierownik Zakładu Międzynarodowej Polityki Ekonomicznej Szkoły Głównej Handlowej, członkini zespołu DISSIMILAR Politechniki Warszawskiej – „Aktualnie, na potrzeby projektu, skupiamy się na kwestiach społecznych pozwalających nam lepiej poznać mechanizmy powstawania i rozprzestrzeniania się nieprawdziwych informacji. W kolejnej fazie projektu, w oparciu o najnowsze techniki wykorzystujące AI, zaprezentujemy metody przeciwdziałania rozprzestrzeniania się fake news”.

Naukowcy Wydziału Elektroniki i Technik Informacyjnych Politechniki Warszawskiej pracują nad narzędziami informatycznymi, które po uzupełnieniu danymi z międzynarodowych badań społecznych, będą stanowić prawdziwe sedno nowego oprogramowania walczącego z dezinformacją w mediach społecznościowych.

„Jesteśmy w trakcie opracowywania wirtualnej platformy, która posłuży do testowania mechanizmów znakowania wodnego, uczenia maszynowego i informatyki śledczej – a więc metod, którymi będziemy posługiwać się w walce z fake newsami. Na tej podstawie zbudujemy skuteczne narzędzie pozwalające w automatyczny sposób oddzielić nieprawdziwe informacje i blokować ich rozprzestrzenianie się” – podkreśla prof. Wojciech Mazurczyk z Instytutu Informatyki WEiTI PW kierujący polskim zespołem w projekcie DISSIMILAR – „wierzymy, że wspólnymi siłami uda się nam zbudować wirtualną tamę przed zalewem fake newsów”.

Co ciekawe, rezultaty projektu nie będą odnosiły się jedynie do walki z dezinformacją w mediach społecznościowych, ale będą mogły być wykorzystane jako narzędzie ochrony autorów publikowanych treści. Techniki cyfrowego znakowania, a więc osadzenie tzw. znaków wodnych w chronionych treściach, które są niewidoczne i niesłyszalne, a ich usunięcie jest natychmiast dostrzegalne, sprawi, że także twórcy otrzymają skuteczne narzędzie do ochrony praw autorskich.

Projekt DISSIMILAR (Detection of fake newS on SocIal MedIa pLAtfoRms) realizowany jest przez trzy uczelnie Okayama University (Japonia), Fundació per a la Universitat Oberta de Catalunya (Hiszpania) oraz Politechnikę Warszawską (Polska). Więcej informacji na stronie: http://dissimilar.ii.pw.edu.pl/.

© 2019 Perspektywy.pl    O nas | Patronaty | Polityka Prywatności | Znak jakości | Reklama | Kontakt