W dobie dynamicznego rozwoju sztucznej inteligencji coraz więcej uwagi przyciąga problem dezinformacji. Niedawna analiza przeprowadzona przez NewsGuard wykazała, że aż 33% przekazywanych treści przez popularne systemy AI jest wynikiem propagandy rosyjskiej, co rodzi poważne konsekwencje dla bezpieczeństwa informacji i stabilności procesów demokratycznych – wskazał serwis CEO.com.pl.
Sieć Pravda została uruchomiona tuż po rozpoczęciu rosyjskiej inwazji na Ukrainę w 2022 roku. Od tego czasu dynamicznie się rozwija, korzystając z około 150 domen do rozpowszechniania treści w dziesiątkach języków. Według raportu American Sunlight Project, sieć publikuje średnio 20 273 artykuły co 48 godzin, co przekłada się na około 3,6 miliona publikacji rocznie – czytamy w informacji.
Analiza przeprowadzona przez NewsGuard ujawniła, że sieć Pravda rozpowszechniała ponad 200 fałszywych informacji. Przykładami takich fake-newsów są doniesienia o tajnych laboratoriach biologicznych Stanów Zjednoczonych na terytorium Ukrainy, czy wykorzystaniu przez Wołodymira Załeńskiego pomocy finansowej dla Ukrainy na zakup posiadłości w Niemczech, którą miał w przeszłości odwiedzać… Adolf Hitler - podano.
Fałszywe przekazy wpływają na sposób, w jaki systemy sztucznej inteligencji przetwarzają i prezentują informacje. Modele AI, takie jak Chat GPT, Copilot czy Gemini, uczą się na podstawie ogromnych zbiorów danych z internetu, są zatem narażone na wpływ dezinformacji, co może prowadzić do poważnych zaburzeń w przekazywaniu rzetelnych informacji - zaznaczono.
Wojciech Głażewski, dyrektor firmy Check Point Software Technologies w Polsce, podkreśla, że dezinformacja rozprzestrzeniana przez sieć Pravda ma potencjał destabilizacji procesów demokratycznych. – Jeśli narzędzia generatywnej sztucznej inteligencji będą powielać narracje dezinformacyjne, mogą wpływać na opinię publiczną i decyzje wyborcze bez świadomości użytkowników. W związku z tym istnieje pilna potrzeba wprowadzenia skutecznych mechanizmów filtrowania, które umożliwią wykrywanie i wykluczanie źródeł dezinformacji z danych treningowych modeli AI – zauważył ekspert Check Pointa.
Sprawa dezinformacji nie dotyczy jedynie technologii, ale ma także wymiar społeczny i polityczny. Z danych opublikowanych przez EUvsDisinfo Lab oraz Światowe Forum Ekonomiczne (WEF) wynika, że Polska jest jednym z krajów najbardziej narażonych na kampanie dezinformacyjne, a szczególnie na wpływy rosyjskiej propagandy, zwłaszcza w okresie przed wyborami prezydenckimi 2025. W ciągu ostatnich 10 lat Polska doświadczyła 1,443 przypadków kampanii dezinformacyjnych, a według raportu Financial Times, liczba przypadków fałszywych informacji i deepfake’ów w Polsce wzrosła o 100% w 2024 roku. W ramach walki z dezinformacją istotne jest podnoszenie świadomości społecznej, przekazywanie wiedzy na temat mechanizmów działania dezinformacji, jej celów oraz sposobów radzenia sobie z manipulacją informacyjną. Proces ten wymaga nie tylko technologicznych innowacji, ale także szeroko zakrojonej współpracy między krajami, organizacjami międzynarodowymi oraz sektorem technologicznym. Transparentna wymiana informacji oraz wspólne wysiłki w monitorowaniu kampanii dezinformacyjnych są kluczowe, aby przeciwdziałać zagrożeniom wynikającym z manipulacji danymi – napisano w podsumowaniu. (jmk)
Foto: Pixabay.com/pl
Źródło: CEO.com.pl
Przez rosyjską dezinformację spada zaufanie do narzędzi AI
