2025. gada decembrī pirms vēlēšanām Polijā 2026. gada janvārī sociālo mediju platformā TikTok pēkšņi parādījās jauns fenomens – pievilcīgu, jaunu poļu sieviešu video, kuros tās ar pārliecību un patriotismu aicina Poliju pamest Eiropas Savienību. Sievietēm bija blondas matu cirtas, poļu nacionālie simboli uz T-krekliem un vilinošs digitāls smaids. Taču reālajā dzīvē neviena no viņām neeksistēja, jo viņas bija mākslīgā intelekta radīti avatāri. Aiz šīs kampaņas, visticamāk, bija Krievija.
Kas notika?
Viss sākās 2025. gada 13. decembrī, kad TikTok konts ar nosaukumu “Prawilne Polki” (aptuvens tulkojums “Pareizās polietes”) mainīja savu identitāti. Ja pirms tam (kopš 2023. gada maija) tas darbojās angļu valodā un publicēja ar Poliju nesaistītu izklaides saturu, tad pēc pārdēvēšanas (vienas nakts laikā) tā aprakstā parādījās sauklis “NĒ EIROKOLHOZAM #polexit” (poļu valodā), un tajā parādījās MI ģenerēti video.


Video bija mērķtiecīgi veidoti 15–25 gadus veciem skatītājiem. Galvenās “varones” bija digitāli radītas, pievilcīgas jaunietes, kas izplatīja vēstījumu: “Es gribu Polexitu, jo gribu izvēles brīvību, pat, ja tā kļūs dārgāka. Es neatceros Poliju pirms Eiropas Savienības, bet jūtu, ka tā bija poliskāka.”
Kampaņu ātri pamanīja Polijas digitālās drošības organizācija “Res Futura Data House”. Analītiķi identificēja vairākus aizdomīgus elementus, piemēram, video ražošanas temps bija pārāk ātrs vienai personai, konts jau iepriekš bija sakrājis sekotājus (iespējams, tas tika nopirkts vai pārtverts), un svarīgākais atradums bija dažu video balss tekstos tika konstatēta krievu sintakse. Polijas valdības pārstāvis Ādams Šlapka to nosauca tieši: “Nav šaubu, ka tā bija Krievijas dezinformācija.”
Tymczasem komunikacja pro #Polexit wchodzi na nowy poziom z przekazem do grup 15-25 kanał #Tiktok pic.twitter.com/n45MkiEtCu
— Res Futura Data House (@Polityka_wSieci) December 28, 2025
Kāpēc tas ir tik bīstami?
Šī kampaņa demonstrēja jaunu, daudzkārt bīstamāku pieeju dezinformācijai, ko iespējamu padarīja mākslīgā intelekta plašā pieejamība.
Uzticamība caur pievilcību. Novērots, ka MI ģenerēti cilvēku tēli rada tūlītēju uzticamību, it īpaši jauniešu auditorijai, kas lielu daļu informācijas saņem no īsiem video sociālajos medijos. Pētījumi liecina, ka 43,7% Polijas 18–25 gadus veco cilvēku TikTok uzskata par savu galveno informācijas avotu priekšvēlēšanu laikā.
Ātrums un apjoms. Viens cilvēks vai neliela komanda var saražot simtiem video variantu dažu stundu laikā. Izplatīšanas algoritmi šādu saturu būtiski pavairoja, radot mākslīgu iespaidu par plašu, organisku atbalstu.
Mērķtiecīga demogrāfiskā segmentācija. TikTok ir īpaši efektīvs, lai sasniegtu tieši jauniešus, kas politiski ir salīdzinoši viegli ietekmējama auditorija, un tieši viņu vēlme pēc “autentiskuma” tika ļaunprātīgi izmantota.
Konta pārtveršana. Izmantojot jau izveidotu kontu ar esošu sekotāju bāzi, kampaņa ieguva uzticamību un redzamību, ko citam no jauna izveidotam kontam vajadzētu nopelnīt ilgākā laika posmā.
“Polexit” plašākā ainā tas ir uzbrukums Eiropai no iekšienes
Šī kampaņa nav izolēts gadījums. Tā ir daļa no sistemātiskas Krievijas stratēģijas vājināt Eiropas Savienību, sējot šķelšanās sēklas tās dalībvalstu sabiedrībās. Kremļa mērķis nav ietekmēt tikai konkrētas vēlēšanas, bet gan graut uzticību Eiropas vienotībai un integritātei kā projektam.
Šis modelis ir jau pazīstams. Tostarp Brexit laikā pētnieki dokumentēja Krievijas atbalstītu troļļu un botu aktivitāti, kas stiprināja pro-Brexit naratīvus. 2024. gadā Rumānijā pirms prezidenta vēlēšanām parādījās koordinētas MI ģenerētas dezinformācijas kampaņas, pret kurām Eiropas Komisija uzsāka izmeklēšanu pret TikTok, Slovākijā pirms 2023. gada vēlēšanām tika izplatīts deepfake audio ar kandidātu Michalu Šimečku, kurā it kā tika runāts par vēlēšanu viltošanu.
Polexit kampaņas konteksts ir jo īpaši nozīmīgs, ņemot vērā Polijas politisko kalendāru. 2026. gadā Polijā paredzētas parlamenta vēlēšanas, un sabiedriskās domas aptaujas jau rāda, ka ap 25% Polijas iedzīvotāju atbalsta izstāšanos no ES, tas ir augstākais rādītājs kopš pievienošanās 2004. gadā. Līdz ar to secinājums ir, ka dezinformācija šīs jūtas nerada no nekurienes, tā tās pastiprina un normalizē.
Ko dara Eiropa?
Polijas Digitalizācijas viceministrs Darjušs Standerski vērsies pie Eiropas Komisijas ar formālu lūgumu sākt izmeklēšanu pret TikTok saskaņā ar Digitālo pakalpojumu aktu (DPA). Viņš norādījis, ka platformā nav ieviesti pietiekami efektīvi MI ģenerēta satura moderācijas mehānismi un tā nav nodrošinājusi pārredzamību par šādu materiālu izcelsmi.
Eiropas Komisija apstiprināja, ka ir saņēmusi Polijas vēstuli un par šo jautājumu uzrunājusi TikTok. Tas gan nav jauns precedents, Komisija jau 2024. gadā sāka formālu DPA procedūru pret TikTok platformu saistībā ar iespējamo iejaukšanos vēlēšanās Rumānijā. Saskaņā ar DPA ļoti lielas tiešsaistes platformas, pie kurām pieder TikTok, pienākums ir novērtēt un mazināt sistēmiskus riskus, tostarp dezinformāciju. Par pārkāpumiem kompānijai draud naudassods līdz 6% no globālā gada apgrozījuma.
Pēc lietotāju sūdzībām TikTok dzēsa “Polexit” kontu un paziņoja, ka sadarbojas ar Polijas iestādēm, tomēr kritiķi norāda, ka platforma reaģēja tikai pēc tam, kad problēma bija jau publiski identificēta, nevis izmantojot pati savas moderācijas sistēmas..
Kā pazīt un vērsties pret šādu dezinformāciju?
Polexit kampaņa ir piemērs tam, kā MI tiek izmantots politiskās manipulācijas nolūkos.
Rīki, kas palīdz šādus mēģinājumus ieraudzīt:
- Pārbaudi konta vēsturi. Ja konts, kas pēkšņi publicē emocionālu politisko saturu, iepriekš darbojies pavisam citā jomā vai citā valodā, tas ir nopietns brīdinājuma signāls. TikTok un citās platformās konta dibināšanas datumu var pārbaudīt profila informācijā.
- Novēro sejas un kustības. MI ģenerēti cilvēki nereti izceļas ar neloģiskām acu kustībām, pārāk perfektu ādu, mirgojošiem artefaktiem (to rašanos nevar izskaidrot ar dabiskiem cēloņiem) uz sejas robežām ar fonu vai stilizētu, “pārtaisītu” izskatu. Ieturi pauzi un aplūko attēlu uzmanīgi.
- Klausies runas tempā un intonācijā. MI sintezēta balss bieži ir pārāk vienmērīga, bez dabiskiem svārstīgumiem un emocijām. Turklāt sintaktiskas vai gramatiskas svešvalodas iezīmes tekstā (piemēram, krievu sintakse poļu valodā) var atklāt avotu.
- Jautā: kam tas izdevīgi? Saturs, kas vienlaikus veicina nacionālas jūtas, ES skepticismu un uzbrūk konkrētai valdībai, ar lielu iespējamību kalpo ārējai ietekmei. Kritiskā domāšana sākas ar jautājumu: kas būs ieguvējs, ja es noticu tam, ko redzu?
- Izmanto atgriezeniskās attēlu meklēšanas rīkus. Google attēlu meklēšana vai rīki, kā piemēram, TinEye var palīdzēt pārbaudīt, vai profila attēls ir unikāls vai paņemts citur. MI ģenerētām sejām bieži nav nekādas citas digitālās pēdas.
- Ziņo un neizplati. Ja konstatē aizdomīgu saturu, ziņo platformai un nekopē video savā profilā, pat, lai to apstrīdētu. Katrs kopīgojums palielina algoritma noteikto sasniedzamību.
Ko tas nozīmē Latvijai?
Latvija nav imūna pret šādām metodēm. Gluži pretēji, kā neliela ES dalībvalsts ar aktīvu krievu valodā runājošo kopienu un vēsturiski nozīmīgu Krievijas informatīvo ietekmi, mūsu sabiedrība ir tieši tā, kuru šāda veida kampaņas mēģina sasniegt. Sagaidāms, ka Latvijas Saeimas vēlēšanās 2026. gadā MI ģenerēts dezinformācijas saturs var tikt izmantots arī pie mums.
Labā ziņa ir tā, ka Polexit kampaņa tika atklāta un apturēta, pateicoties modriem pilsoniskās sabiedrības pētniekiem, žurnālistiem un platformas lietotājiem, kas ziņoja par aizdomīgu saturu. Tas ir apliecinājums, ka mēs paši esam pirmā aizsardzības līnija. Medijpratība un kritiski domājošs skats sociālajos medijos nav papildus prasme – tas ir mūsdienu pilsoniskums.
Atceries: dezinformācija neizklausās pēc dezinformācijas. Tā izklausās pēc kaut kā, kam tu tici.



