Të fundit | Paralajmërimi “Mos planifikoni udhëtime me aeroplan për në Evropë” është i… Të fundit | Perspektivat nordike për luftimin e dezinformimit dhe forcimin e reziliencë… Të fundit | Autoritetet e rreme publike të gjeneruara me AI si formë e re e çrregullimi… Të fundit | Pretendim i rremë për shembje ndërtese, përmbajtja tregon tjetër ngjarje Të fundit | Si (s’)erdhën Marco Rubio dhe Ivanka Trump në Shqipëri Të fundit | Mediat në serbisht e paraqesin viktimën kosovare në Austri si shtetas të Se… Të fundit | Pretendohet pa fakte se Policia e Kosovës rrahu fëmijë serbë në Jarinjë Të fundit | Raporti monitorues i keqinformimit për muajin mars 2026 Të fundit | Pretendohet pa fakte për rritje 40% të çmimit të ujit të ambalazhuar Të fundit | Rishikimi i javës: Pretendime për konfiskimin e pronave të Vjosa Osmanit dh…
[ ARTIKULLI ]

Propaganda e luftës me Inteligjencë Artificiale (IA)

HIBRID

Shkroi: Festim Rizanaj

Në marsin e vitit 2026, fusha e betejës në Lindjen e Mesme ka kaluar përtej kufijve fizikë duke u zhvendosur në një sferë ku Inteligjenca Artificiale (IA) po shkatërron vetë konceptin e realitetit. Ne nuk po përballemi më vetëm me “lajme të rreme”, por me një arkitekturë të plotë të mashtrimit, ku teknologjia përdoret si për të krijuar gënjeshtra, ashtu edhe për të shpallur të vërtetat si “fake”.

Paradoksi Netanyahu: Kur “prova e jetës” bëhet e pabesueshme

Kryeministri izraelit Benjamin Netanyahu u detyrua të publikonte një seri videosh të njëpasnjëshme për të mbytur thashethemet masive mbi vdekjen e tij. Kjo valë dezinformimi nuk ishte thjesht një thashethem kalimtar, por një operacion i mirëfilltë psikologjik që synonte të krijonte një vakuum lidershipi në një moment kritik të konfliktit. Publikimi i videove, në rrethana normale, duhet të kishte shuar çdo dyshim, por në vitin 2026, imazhi i lëvizshëm (video) nuk është më një garanci e vërtetësisë.

Analiza e detajuar nga gazeta Haaretz, vë në dukje se skepticizmi i publikut vetëm sa u rrit pas shfaqjes së videove. Analistët dhe qytetarët filluan të skanonin çdo detaj të mimikës dhe sinkronizimit të zërit, të bindur se mund të ishin përballë një deepfake-u të avancuar. Siç vëren Haaretz, kjo “provë jete” nuk bëri gjë tjetër veçse hapi një kapitull të ri të quajtur “Coffeegate”. Skeptikët vunë re se filxhani i tij i kapuçinos ishte mbushur deri në buzë, por, çuditërisht, asnjë pikë nuk u derdh teksa ai e lëvizte. Madje, edhe inteligjenca artificiale e Elon Musk, Grok, e cilësoi dorën e tij si “një artefakt klasik të IA-së”. Ky fenomen tregon se si teknologjia ka gërryer besimin bazë; kur një lider nuk mund të vërtetojë ekzistencën e tij përmes ekranit, shteti bie në një gjendje paralize informative.

Ky mosbesim nuk është i izoluar, por pasqyron atë që RFI e përshkruan si një “shpërthim të dezinformimit” që shoqëron çdo lëvizje ushtarake në Lindjen e Mesme. Në fund të fundit, rasti Netanyahut dëshmon se kemi hyrë në fazën e “vdekjes së dëshmisë vizuale”. Pa praninë fizike të pakontestueshme dhe ndërveprimin e drejtpërdrejtë me gazetarët, çdo mesazh qeveritar në vitin 2026 interpretohet si një produkt algoritmik. Ky është një rrezik ekzistencial për demokracitë dhe stabilitetin shtetëror, pasi komunikimi publik po humbet busullën e tij të fundit të besueshmërisë, duke e lënë shoqërinë në dorë të teorive konspirative të mirë-orkestruara.

Doktrina e re ushtarake: Lufta me Inteligjencë Artificiale (IA)

Një nga zhvillimet më shqetësuese është përdorimi i IA-së për analizimin e inteligjencës dhe përzgjedhjen e objektivave në operacione ushtarake. Në rastin e fundit të lidhur me Iranin, teknologjia është përdorur për të përpunuar të dhëna, për të simuluar skenarë dhe për të ndihmuar në identifikimin e objektivave strategjikë. Një opinion kritik në The Guardian paralajmëron se përdorimi i IA-së nga ushtria amerikane për të marrë vendime strategjike është një territor jashtëzakonisht i rrezikshëm. Ky kalim drejt “luftës algoritmike” po e transformon mënyrën se si fuqitë e mëdha projektojnë forcën, duke hequr elementin e llogaridhënies njerëzore nga fushëbeteja.

Në artikullin analitik të The Guardian, detajohet se si ShBA po përdor sistemet autonome për të shënjestruar infrastrukturën brenda Iranit. Modele si Anthropic’s Claude janë përdorur për analiza strategjike dhe operacione të ndjeshme, duke përfshirë planifikim dhe përpunim të inteligjencës për sulme. Kjo shënon një zhvendosje të thellë: nga përdorimi civil i IA-së si mjet ndihmës, drejt integrimit të saj në vendimmarrje që lidhen drejtpërdrejt me dhunën dhe luftën.

Kjo ka mundësuar sulme masive dhe të koordinuara brenda pak orësh, si vrasja e udhëheqësit suprem iranian Ali Khamenei dhe goditja e objekteve të shumta ushtarake, duke kompresuar kohën e vendimmarrjes dhe rritur efikasitetin operativ. Megjithatë, ekspertët paralajmërojnë se kjo mund të shkaktojë “zhvendosje kognitive”, ku vendimmarrësit njerëzorë ndihen të shkëputur nga pasojat e vendimeve, duke ngritur shqetësime etike dhe rreziqe nga automatizimi i luftës.

Po ashtu theksohet se ky zhvillim e zhduk kufirin tradicional midis teknologjisë civile dhe përdorimit ushtarak, duke rritur rreziqet etike dhe strategjike. Debatet që dikur ishin teorike tani janë bërë realitet, ndërsa fuqitë globale pritet të ndjekin të njëjtën rrugë. Në këtë kontekst, kërkohet presion ndërkombëtar për rregullim dhe mbikëqyrje të përdorimit të IA-së në ushtri, për të shmangur një përshkallëzim të pakontrolluar dhe një rend të ri global më të rrezikshëm.

Dezinformimi i koordinuar nga Irani dhe lufta e narrativave

Irani nuk ka mbetur pas në këtë garë të re, duke përdorur IA-në për të “përmbytur” internetin me propagandë të sofistikuar. Një investigim interaktiv nga Cyabra e publikuar në The New York Times zbulon se si Teherani po përdor mjetet e IA-së gjenerative për të prodhuar përmbajtje që imiton në mënyrë perfekte gjuhën dhe kontekstin e mediave perëndimore.

Fushata e identifikuar në raport funksionon si një rrjet i koordinuar dezinformimi që mbështetet në përdorimin e inteligjencës artificiale dhe llogarive të rreme për të prodhuar dhe shpërndarë përmbajtje në shkallë të gjerë. Këto rrjete operojnë përmes ripërdorimit masiv të videove, narrativave dhe përshkrimeve të njëjta, duke krijuar një efekt “përmbytjeje” informative. Vëllimi i madh i përmbajtjes, i përforcuar nga algoritmet e platformave sociale, kontribuon në dominimin e hapësirës digjitale dhe në zbehjen e zërave të pavarur apo informacionit të verifikuar.

Një element i rëndësishëm i kësaj strategjie është përdorimi i shumë gjuhëve për të arritur audienca të ndryshme ndërkombëtare. Raporti tregon se përmbajtjet shpërndahen në gjuhë të ndryshme dhe në kontekste të ndryshme kulturore, duke synuar rritjen e besueshmërisë dhe pranueshmërisë së propagandës në audienca të gjera globale. Duke manipuluar algoritmet e rrjeteve sociale, Irani po arrin të depërtojë në flluskat e informacionit të kundërshtarëve të tij, duke shpërndarë teori konspirative që dobësojnë mbështetjen për ndërhyrjet ushtarake.

Gjatë sulmeve të koordinuara të ShBA-së dhe Izraelit ndaj Iranit në fund të shkurtit 2026, përdoruesit e mediave sociale shpërndanë imazhe dhe video të keqinterpretuara që e paraqisnin Iranin si më të fuqishëm dhe të suksesshëm sesa tregojnë provat e verifikuara. Kjo u vlerësua si një luftë e fituar e Iranit në sferën digjitale nëpërmjet përmbajtjeve dezinformuese (imazhe dhe video) të publikuara në media sociale.  

Kjo situatë ilustron mënyrën se si dezinformimi mund të përhapet shpejt gjatë konflikteve ndërkombëtare, duke manipuluar perceptimin e publikut mbi fuqinë ushtarake të një vendi. NewsGuard ka vënë re se këto praktika të keqinterpretimit të pamjeve janë pjesë e një modeli më të gjerë global të dezinformatave, ku përveç konflikteve në Lindjen e Mesme, operacione të tilla ndikimi si ato të Rusisë synojnë të diskreditojnë aleatët evropianë të Ukrainës dhe të përhapin narrative mashtruese përmes mediave sociale. Lufta e narrativave është bërë po aq intensive sa shkëmbimet e zjarrit, ku objektivi nuk është më bindja e tjetrit, por krijimi i një kaosi ku e vërteta bëhet e padallueshme. Në këtë mjedis, dyshimi është kthyer në armë.

Kaosi në X dhe Google AI Overview

Një valë e paparë e përmbajtjes së gjeneruar nga inteligjenca artificiale (IA) ka pushtuar platformën X gjatë konfliktit ShBA/Izrael-Iran, duke përfshirë video dhe imazhe të fabrikuara që gjoja tregojnë sulme ndaj qyteteve izraelite, rrëmbime ushtarësh amerikanë dhe shkatërrim të bazave amerikane. Sipas një artikulli të publikuar në Weird, shumë prej këtyre përmbajtjeve janë krijuar ose shpërndarë nga llogari premium me shenja verifikimi blu, duke përfituar nga programet e monetizimit të platformës, dhe shpesh i kanë bërë të pamundura për përdoruesit dhe gazetarët dallimin mes realitetit dhe fabrikimeve; për më tepër, IA-ja e integruar në X, Grok, ka konfirmuar gabimisht disa nga këto video si të vërteta, duke përforcuar përhapjen e dezinformatave.

Nga burimet e X-it deklaruan se “99%” e llogarive që përhapin video të gjeneruara nga inteligjenca artificiale si këto po përpiqeshin të “shfrytëzonin monetizimin” duke postuar përmbajtje që gjeneron sasi të mëdha angazhimi në këmbim të pagesës përmes programit të Ndarjes së të Ardhurave për Krijuesit të aplikacionit.

Ndërkohë, masat e ndërmarra nga platforma X, si pezullimi përkohshëm i monetizimit për llogaritë që postojnë përmbajtje lufte të gjeneruar nga IA pa etiketim, konsiderohen të pamjaftueshme nga studiuesit. Shumë përdorues që shpërndajnë dezinformata nuk bëjnë pjesë në programin e të ardhurave, ndërsa sistemi i vlerësimit nga komuniteti nuk arrin të mbulojë tërë rrjedhën e informacionit mashtrues.

AI Overviews e Google, e krijuar për të ofruar përmbledhje të menjëhershme në kërkimet me imazh, është treguar se identifikon gabimisht pamje të fabrikuara dhe mashtruese të lidhura me konfliktin ShBA/Izral-Iran, sipas NewsGuard. Në disa raste, përmbledhjet e IA-së përshkruanin gabimisht video të vjetra ose përmbajtje të krijuar nga IA si sulme të fundit, përfshirë një zjarr në Sharjah në 2015 që u paraqit si zjarr në një objekt inteligjence në Dubai, dhe video IA të raketave iraniane që sulmonin Tel Avivin si pamje autentike. Këto gabime tregojnë një dobësi të sistemit të Google për verifikimin e imazheve, pasi IA mund të paraqesë pretendime të rreme si të sakta, edhe kur burime të besueshme janë të disponueshme në seksionin “Exact Matches”.

Megjithatë, kërkimet me imazh mund të ofrojnë informacion të dobishëm mbi origjinën dhe kontekstin e një imazhi, por përdoruesit mund të mbështeten vetëm te përmbledhja e IA-së që shfaqet në krye të rezultateve. Google ka pranuar se AI Overviews reflekton informacionin e kufizuar të disponueshëm për disa imazhe dhe ka deklaruar se vepron për të përmirësuar sistemet kur gjenden shkelje të politikave. Gjetjet e NewsGuard nënvizojnë nevojën për verifikim të kujdesshëm, sidomos kur përmbajtjet e krijuara nga IA paraqiten si të vërteta në kontekste me rëndësi të madhe, si konfliktet ndërkombëtare.

Platformat digjitale po reagojnë me masa të reja, si politika e X për pezullimin e krijuesve që publikojnë video të IA-së pa etiketime, për të mbrojtur besueshmërinë e informacionit gjatë konflikteve. Megjithatë, përdorimi i përmbajtjeve të gjeneruara nga IA dhe video të jashtëkontekstit ka theksuar dobësitë e sistemeve të verifikimit, përfshirë mjetet e kërkimit të imazheve të Google, duke rritur atë që ekspertët e quajnë “mjegullën e luftës” në mjediset mediale globale. Kjo situatë tregon nevojën për verifikim të kujdesshëm të informacionit dhe vetëdije mbi ndikimin e përhapjes së dezinformatave në kohë lufte.

Raporto

Na ndihmoni të përmirësojmë duke na raportuar problemet ose sugjerimet tuaja

0 / minimum 10 karaktere