[email protected]
A është Inteligjenca Artificiale antidot ndaj dezinformimit?
shape
shape
shape

Artikull nga World Economic Forum

Dezinformimi është një “pandemi” që ka përfshirë ekonomitë e vogla dhe të mëdha, si dhe po cilësohet si një kërcënim ndaj stabilitetit të shoqërisë. Në mbarë botën, njerëzit po përballen me kërcënime për jetën dhe sigurinë personale për të shkak të dezinformatave të shumta, të cilat manipulojnë perceptimet e njerëzve ose propagandojnë gënjeshtra. Këto po shkaktojnë ngarkesë emocionale dhe përçarje shoqërore.

Programe të bazuara në Inteligjencë Artificiale (AI) po përdoren për të krijuar “deepfakes” të liderëve politikë duke përshtatur video, audio dhe fotografi. Deepfakes mund të përdoren për të krijuar kaos në shoqëri. Inteligjenca artificiale po përmirësohet gjithashtu në gjenerimin e përmbajtjeve të ngjashme me njerëzit duke përdorur modele gjuhësore si GPT-3 që mund të autorizojnë artikuj, poezi dhe ese. Falsifikimi i të gjitha llojeve të përmbajtjes është bërë aq konsistent nga AI sa softueri me burim të hapur si FaceSwap dhe DeepFaceLab mund të mundësojnë që edhe amaterët më diskretë të jenë në epiqendër të dis-harmonisë sociale. Në një kohë kur njerëzit nuk dinë se ku të besojnë më, “teknologjia për të mirë” duket të jetë shpëtimtari i vetëm.

Analitika semantike për filtrim bazik

Për të luftuar dezinformimin me teknologji është analiza e përmbajtjes. Mjetet e bazuara në AI mund të kryejnë analiza gjuhësore të përmbajtjes tekstuale dhe të zbulojnë shenja, duke përfshirë modelet e fjalëve, ndërtimin e sintaksës dhe lexueshmërinë, për të dalluar përmbajtjen e krijuar nga kompjuteri me atë nga teksti i krijuar nga njeriu. Algoritme të tilla mund të marrin çdo pjesë të tekstit dhe të kontrollojnë për vektorët e fjalëve, pozicionimin e fjalëve dhe konotacionin për të identifikuar gjurmët e gjuhës së urrejtjes. Për më tepër, algoritmet e AI mund të ndryshojnë imazhet dhe videot e manipuluara për të zbuluar deepfakes dhe për të nxjerrë në pah përmbajtjen që duhet të raportohet.

Por kjo nuk mjafton: rrjetet kundërshtare gjeneruese po bëhen aq të sofistikuara sa që algoritmet së shpejti do të prodhojnë përmbajtje që nuk dallohet nga ajo e krijuar nga njerëzit. Algoritmet me analizë semantike të tilla, nuk mund të interpretojnë përmbajtjen brenda imazheve të gjuhës së urrejtjes që nuk janë manipuluar, por përkundrazi shpërndahen me kontekstin e gabuar, keqdashës ose me përmbajtje shtesë. Gjithashtu, nuk mund të kontrollojnë nëse pretendimet e bëra nga disa pjesë të përmbajtjes janë të rreme. Barrierat gjuhësore gjithashtu shtojnë sfidat. Në thelb, ndjenja e një posti në internet mund të vlerësohet, por jo vërtetësia e tij. Këtu kërkohet ndërhyrja njerëzore me AI.

Gjurmimi i rrënjëve: polic i nivelit tjetër

Lajmet e rreme shpesh janë gjetur të kenë të njëjtën rrënjë – vendin e origjinës përpara përhapjes së lajmit. Projekti Fandango, për shembull, përdor storje që janë shënuar si të rreme nga kontrollues të fakteve të cilët janë njerëz dhe më pas kërkon për postime në mediat sociale ose faqe në internet që kanë fjalë ose pretendime të ngjashme. Kjo u lejon gazetarëve dhe ekspertëve të gjurmojnë historitë e rreme në rrënjët e tyre dhe të eliminojnë të gjitha kërcënimet e mundshme përpara se ato të përhapen jashtë kontrollit.

Shërbime të tilla si Politifact, Snopes dhe FactCheck punësojnë redaktorë njerëz të cilët mund të kryejnë kërkimin parësor të kërkuar për verifikimin e origjinalitetit të një raporti ose një imazhi. Pasi të gjendet një falsifikim, algoritmet e AI ndihmojnë për të kërkuar nëpër ueb dhe për të luftuar pjesë të ngjashme të përmbajtjes që mund të nxisin mosmarrëveshje sociale. Nëse përmbajtja rezulton e vërtetë, artikullit të faqes në internet mund t’i caktohet një rezultat reputacioni. Trust Project përdor parametra të tillë si burimet, referencat, standardet etike dhe korrigjimet për të vlerësuar besueshmërinë e organeve të lajmeve.

Përhapja e analizave për të ndaluar përhapjen

Ekziston një ndryshim i dukshëm mes mënyrës se si lajmet e rreme dhe lajmet e vërteta qarkullojnë nëpër rrjetet sociale. Studiuesit nga MIT sugjerojnë se lajmet e rreme qarkullojnë gjashtë herë më shpejt se lajmet e vërteta për të arritur në 1500 njerëz në Twitter.

Njerëzit zakonisht ndajnë lajme të rreme më shpejt pa shumë mendim kritik ose një formë gjykuese. GoodNews përdor një motor AI për të identifikuar lajmet e rreme duke përdorur matjet e angazhimit, pasi lajmet e rreme tregojnë më shumë shpërndarje sesa pëlqime, krahasuar me lajmet e vërteta. Teknika të tilla për të kapur përmbajtje të dyshimtë bazuar në përhapjen e saj mund të ndihmojnë në parandalimin e radikalizimit.

Njerëzit në thelb

Përdorimi i teknologjisë është një hap reaksionar kur bota ka nevojë për një qasje proaktive për të luftuar dezinformimin. Inteligjenca artificiale do të jetë e suksesshme nëse edukojmë masat – veçanërisht të rinjtë – që të jenë vigjilentë ndaj dezinformatave. Lajmet e rreme nuk janë thjesht një çështje e algoritmeve, por e filozofisë që qëndron pas mënyrës sesi trajtojmë njohuritë – të mira apo të këqija. Komunitetet e përdoruesve të informuar mund të kontribuojnë në aktivitetet e monitorimit etik, ndërkohë që grumbullimi i njohurive bashkëpunuese ndërmjet organizatave profesionale është thelbësor për verifikimin e informacionit të papërpunuar.

Humanizimi i qasjes për të luftuar dezinformimin duhet të jetë prioriteti më i lartë në mënyrë që të ndërtohet një shoqëri e mirë informuar e mendimtarëve kritikë. Mungesa e masave proaktive që përfshijnë të gjithë aktorët mund të çojë në erozionin e shpejtë të besimit në media dhe në institucionet, që është një pararendës i anarkisë. Derisa njerëzit të mësojnë të vlerësojnë në mënyrë objektive përmbajtjen në internet, teknologjitë e bazuara në AI duhet të jenë aleati ynë në luftimin e dezinformimit në internet.

Share With Others