[email protected]
Si mund teknologjia të zbulojë lajmet e rreme në video?
shape
shape
shape

Gjetje nga UOC, projekt me studiues japonezë dhe polakë për të dalluar automatikisht përmbajtjen multimediale origjinale dhe asaj të rreme.



Rrjetet sociale janë një instrument kyç në përhapjen e lajmeve të rreme dhe dezinformatave. Kjo situatë është përkeqësuar me zhvillimet më të fundit në editimin e fotografive, videove me mjete të Inteligjencës Artificiale, të cilat e bëjnë të lehtë manipulimin e dosjeve audiovizuale, për shembull me të ashtuquajturat “deepfakes”, të cilat kombinojnë dhe mbivendosin imazhe, audio dhe video për të krijuar montazhe që duken si të vërteta.

Studiuesit nga K-riptografia dhe Siguria e Informacionit për Rrjetet e Hapura (KISON) dhe grupet e Rrjeteve të Komunikimit dhe Ndryshimi Social (CNSC) të Institutit Ndërdisiplinor të Internetit (IN3) në Universitat Oberta de Catalunya (UOC) kanë nisur një projekt të ri për të zhvilluar teknologji inovative që, duke përdorur teknika të inteligjencës artificiale dhe fshehjes së të dhënave, duhet t’i ndihmojë përdoruesit të dallojnë automatikisht përmbajtjen multimediale origjinale dhe të falsifikuar, duke kontribuar kështu në minimizimin e ripostimit të lajmeve të rreme. DISSIMILAR është një iniciativë ndërkombëtare e drejtuar nga UOC duke përfshirë studiues nga Universiteti i Teknologjisë i Varshavës (Poloni) dhe Universiteti Okayama (Japoni).

“Projekti ka dy objektiva: së pari, t’u ofrojë krijuesve të përmbajtjeve mjete për të vulosur krijimet e tyre, duke bërë kështu çdo modifikim lehtësisht të zbulueshëm dhe së dyti t’u ofrojë përdoruesve të rrjeteve sociale mjete për përpunimin e sinjalit dhe metoda të mësimit të mjeteve për të zbuluar falsifikimet me përmbajtje dixhitale”, shpjegoi profesori David Megías, studiuesi kryesor i KISON dhe drejtor i IN3. Për më tepër, DISSIMILAR synon të përfshijë “dimensionin kulturor dhe këndvështrimin e përdoruesve gjatë gjithë projektit”, nga dizajnimi i mjeteve deri te studimi i përdorshmërisë në faza të ndryshme.

Rreziku i paragjykimeve

Aktualisht, ekzistojnë dy lloje mjetesh për të zbuluar lajmet e rreme. Së pari, janë ato automatike të bazuara në “machine learning”, nga të cilat (aktualisht) ekzistojnë vetëm disa prototipa dhe së dyti, ka platforma të zbulimit të lajmeve të rreme që paraqesin përfshirje njerëzore, siç është rasti me Facebook dhe Twitter, të cilat kërkojnë pjesëmarrjen e njerëzve për të përcaktuar nëse përmbajtja specifike është e vërtetë apo e rreme. Sipas David Megías, kjo zgjidhje e centralizuar mund të ndikohet nga “paragjykime të ndryshme” dhe të inkurajojë censurën. “Ne besojmë se një vlerësim objektiv i bazuar në mjetet teknologjike mund të jetë një opsion më i mirë, me kusht që përdoruesit të kenë fjalën e fundit për të vendosur, mbi bazën e një paravlerësimi, nëse mund t’i besojnë përmbajtjes së caktuar apo jo”, shpjegoi ai.

Për Megías, nuk ka një “zgjidhje të lehtë” që mund të zbulojë lajmet e rreme: përkundrazi, zbulimi duhet të kryhet me një kombinim mjetesh të ndryshme. “Kjo është arsyeja pse ne kemi zgjedhur të eksplorojmë fshehjen e informacionit (vula), teknikat e analizës së forenzikës së përmbajtjes digjitale (në një masë të madhe të bazuar në përpunimin e sinjalit) dhe kuptohet, ‘machine learning’”, vuri në dukje ai.

Verifikimi automatik i dosjeve multimediale

Vula digjitale përfshin një sërë teknikash në fushën e fshehjes së të dhënave që futin informacione të padukshme në dosjen origjinale për të qenë në gjendje “lehtësisht dhe automatikisht” të verifikojnë një dosje multimediale. “Mund të përdoret për të treguar vërtetësinë e një përmbajtjeje, për shembull, duke konfirmuar që një video ose foto është shpërndarë nga një agjenci zyrtare lajmesh dhe gjithashtu mund të përdoret si një shenjë vërtetimi, e cila do të fshihej në rast të modifikimit të përmbajtjes ose për të gjurmuar origjinën e të dhënave. Me fjalë të tjera, mund të tregojë nëse burimi i informacionit (p.sh. një llogari në Twitter) po përhap përmbajtje të rreme”, shpjegoi Megías.

Teknikat e analizës së forenzikës së përmbajtjes dixhitale

Projekti do të kombinojë zhvillimin e vulave me aplikimin e teknikave të analizës së forenzikës së përmbajtjes digjitale. Qëllimi është të përdoret teknologjia e përpunimit të sinjalit për të zbuluar shtrembërimet e brendshme të prodhuara nga pajisjet dhe programet e përdorura gjatë krijimit ose modifikimit të ndonjë dosjeje audiovizuale. Këto procese shkaktojnë një sërë ndryshimesh, të tilla si zhurma e sensorit ose shtrembërimi optik, të cilat mund të zbulohen me anë të modeleve të machine learning. “Ideja është që kombinimi i të gjitha këtyre mjeteve përmirëson rezultatet kur krahasohet me përdorimin e zgjidhjeve të vetme”, tha Megías.

Studime me përdorues në Katalonjë, Poloni dhe Japoni

Një nga karakteristikat kryesore të DISSIMILAR është qasja e tij “holistike” dhe grumbullimi i “perceptimeve dhe komponentëve kulturorë rreth lajmeve të rreme”. Me këtë në mendje, do të kryhen studime të ndryshme të fokusuara te përdoruesit, të ndara në faza të ndryshme. “Së pari, ne duam të zbulojmë se si përdoruesit ndërveprojnë me lajmet, çfarë i intereson ata, çfarë mediash konsumojnë, në varësi të interesave të tyre, çfarë përdorin si bazë për të identifikuar përmbajtje të caktuara si lajme të rreme dhe çfarë janë të përgatitur të bëjnë për të kontrolluar vërtetësinë e tyre. Nëse mund t’i identifikojmë këto, kjo do ta bëjë më të lehtë për mjetet teknologjike që ne projektojmë për të ndihmuar në parandalimin e përhapjes së lajmeve të rreme”, shpjegoi Megías.

Këto perceptime do të maten në vende dhe kontekste të ndryshme kulturore, në studimet e grupeve të përdoruesve në Katalonjë, Poloni dhe Japoni, në mënyrë që të përfshihen veçoritë e tyre gjatë hartimit të zgjidhjeve. “Kjo është e rëndësishme sepse, për shembull, çdo vend ka qeveri dhe/ose autoritete publike me shkallë më të madhe ose më të vogël të besueshmërisë. Kjo ka një ndikim në mënyrën se si ndiqen lajmet dhe mbështetjen për lajmet e rreme: nëse nuk besoj tek autoritetet, pse duhet t’u kushtoj vëmendje lajmeve që vijnë nga këto burime? Kjo mund të shihet gjatë krizës së COVID-19: në vendet ku kishte më pak besim tek autoritetet publike, kishte më pak respekt për sugjerimet dhe rregullat mbi trajtimin e pandemisë dhe vaksinimin”, tha Andrea Rosales, studiuese në CNSC.


Një produkt që është i lehtë për t’u përdorur dhe kuptuar

Në fazën e dytë, përdoruesit do të marrin pjesë në dizajnimin e mjetit për të “siguruar që produkti të jetë i pranuar mirë, i lehtë për t’u përdorur dhe i kuptueshëm”, tha Andrea Rosales. “Ne do të donim që ata të përfshiheshin me ne gjatë gjithë procesit derisa të prodhohet prototipi përfundimtar, pasi kjo do të na ndihmojë të ofrojmë një përgjigje më të mirë ndaj nevojave dhe prioriteteve të tyre dhe të bëjmë atë që zgjidhjet e tjera nuk kanë qenë në gjendje ta bëjnë”, shtoi David Megías.

Ky pranim i përdoruesit mund të jetë në të ardhmen një faktor që i shtyn platformat e rrjeteve sociale të përfshijnë zgjidhjet e zhvilluara në këtë projekt. “Nëse eksperimentet tona japin fryte, do të ishte mirë nëse do t’i integronin këto teknologji. Për momentin, do të ishim të lumtur me një prototip pune dhe një provë koncepti që mund të inkurajojë platformat e rrjeteve sociale t’i përfshijnë këto teknologji në të ardhmen”, përfundoi David Megías.

(Artikull i publikuar nga www.eurekalert.org)

Share With Others