[email protected]
A do të përbëjnë imazhet e krijuara nga AI një krizë të re për kontrolluesit e fakteve? Ekspertët nuk janë aq të sigurt
shape
shape
shape

Gjatë javëve të fundit, një sërë imazhesh të pamundura u bënë virale: ish-presidenti i SHBA-ve, Donald Trump u arrestua; Papa Françesku i veshur me një pallto të bardhë elegante; Elon Musk duke ecur dorë për dore me CEO të General Motors, Mary Barra. 

Megjithatë, këto foto nuk janë aq të pamundura: Ish-presidenti Trump me të vërtetë po arrestohej; Papët dihet se veshin veshje të bardha.  Megjithatë, ajo që është e veçantë është se ato janë të gjitha imazhe të rreme të krijuara nga softueri gjenerues i inteligjencës artificiale. 

Për ata që merren me dezinformimin, rritja e imazheve të krijuara nga intelegjenca artificiale (AI) është me të vërtetë një shqetësim në rritje pasi një pjesë e madhe e kontrollit të fakteve që ata bëjnë, është i bazuar në imazhe ose video. Marilín Gonzalo shkruan një kolonë teknologjike në Newtral, një organizatë e pavarur spanjolle e kontrollit të fakteve. Ajo thotë se dezinformimi vizual është një shqetësim i veçantë pasi imazhet janë veçanërisht bindëse dhe ato mund të kenë një ndikim të fortë emocional në perceptimet e audiencës. 

Pavarësisht shqetësimeve se imazhet e krijuara nga AI mund të çojnë në një krizë të së vërtetës, ekspertë si Felix Simon, një studiues komunikimi në Institutin e Internetit të Oksfordit, paralajmëron kundër marrjes së një pikëpamjeje alarmante mbi këto teknologji të reja duke thënë se përhapja e saj nuk barazohet domosdoshmërisht me njerëzit që besojnë në ato imazhe. 

“Marrëdhënia midis imazhit dhe së vërtetës ka qenë gjithmonë e paqëndrueshme,” thotë Simon. “Dikush mund të thotë se ajo që shohim me AI gjeneruese është vetëm një vazhdim i kësaj. Shumë njerëz do të mësohen me të. Ata do të zhvillojnë mekanizma mbrojtës si në nivel personal, por edhe në nivel institucional, ku organizatat e lajmeve ndoshta do të bëjnë më shumë për të kontrolluar nëse imazhet tregojnë atë që pretendojnë se tregojnë. 

Simon thotë se shqetësimet për një luftë të re informacioni të bazuar në imazhe dhe përhapjen e lajmeve të rreme datojnë që në ditët kur fotografia u prezantua në redaksitë mediale. Kohët e fundit, shqetësimet rreth ndikimit të falsifikimeve të thella kanë qenë rreth e rrotull prej vitesh. Edhe duke shkuar disa vite më parë, shqetësime të ngjashme në lidhje me lajmet e rreme të bazuara në imazhe u shfaqën kur Photoshop u bë i aksesueshëm për publikun.

Higgins i Bellingcat beson se imazhet e krijuara nga AI janë një fenomen që ka shumë të ngjarë të përfshihen në platformat e mediave sociale në vend që të jenë diçka që arrin diku afër mediave kryesore. Megjithatë, ajo që ka të bëjë me kontrolluesit e fakteve nuk është domosdoshmërisht ajo që prodhojnë këta softuer, por shpejtësia me të cilën prodhohen. Organizatat e lajmeve jo vetëm që do të duhet të verifikojnë siç duhet informacionin, por do ta bëjnë këtë në kohën e duhur për të shmangur një vakum informacioni.

De Marval mendon se kontrolluesit e fakteve do të duhet të përshtatin metodologjinë dhe ritmet e tyre për të qenë në gjendje të kapin fluksin e mundshëm të imazheve sintetike. “Metodat e verifikimit duhet të përshtaten dhe të thjeshtohen në të gjitha redaksitë, në mënyrë që ato të mund të përpunojnë video dhe imazhe përpara se t’i shfaqin ato,” thotë ajo. 

Ndërsa AI gjeneruese sigurisht që kontribuon në një rritje të shkallës së prodhimit të keqinformimit dhe dezinformimit, Simon mendon se pretendimet se kjo teknologji mund të çojë në fundin e së vërtetës janë problematike. “Nuk është domosdoshmërisht që njerëzit do të mashtrohen më lehtë, por përkundrazi që njerëzit do të bëhen pak më skeptikë ndaj informacionit në përgjithësi, duke përfshirë informacionin e besueshëm,” thotë ai. 

Disa organizata lajmesh kanë punuar gjithashtu për të zhvilluar mjete për t’i bërë të ditur audiencës se përmbajtja e tyre është reale. Për shembull, Project Origin është një projekt bashkëpunues midis organizatave mediatike si BBC, CBC/Radio-Kanada, New York Times  dhe organizatave të teknologjisë si Microsoft që po zhvillon sinjale, si shenjat e verifikimit kriptografik, që do të lidheshin me përmbajtjen mediatike për të provuar autenticiteti dhe burimi i një pjese të caktuar të përmbajtjes, si një imazh ose një video. Mjeti i prezantuar së fundi nga Adobe për gjenerimin e imazheve Firefly do të përfshijë “kredencialet e përmbajtjes”. Në çdo imazh ose një etiketë që do t’u tregonte përdoruesve nëse një imazh është krijuar nga AI apo jo.

Ekspertët thonë se mund të zvogëlohet ndikimi i dezinformatave të bazuara në AI duke nxitur edukimin e medias dhe duke edukuar qytetarët në teknikat personale të kontrollit të fakteve.

De Marval, thotë se gjëja më e rëndësishme është të shikosh kontekstin rreth imazhit dhe të pyesësh se kush po i shpërndan këto ‘lajme’: sa më i zjarrtë politikisht të jetë një imazh, aq më shumë në mëdyshje duhet të jemi për vërtetësinë e tij. “Pavarësisht se sa shumë kontrollim të fakteve bëjmë ose nëse të gjitha redaksitë po verifikojnë të gjithë përmbajtjen, do të jetë pak e dobishme nëse njerëzit nuk kanë edukim medial,” thotë ajo.

Burimi: https://reutersinstitute.politics.ox.ac.uk/news/will-ai-generated-images-create-new-crisis-fact-checkers-experts-are-not-so-sure

Share With Others