[email protected]
Politikat e platformave mbi dezinformatat e manipuluara dhe të gjeneruara nga Inteligjenca Artificiale (AI)
shape
shape
shape

Artikull i publikuar nga disinfo.eu


Zhvillimi i teknologjive të inteligjencës artificiale (AI) ka qenë prej kohësh një sfidë për fushën e dezinformimit, duke lejuar që përmbajtja të manipulohet lehtësisht dhe duke kontribuar në përshpejtimin e shpërndarjes së saj. Përqendrimi në përmbajtje, zhvillimet e fundit teknike dhe përdorimi në rritje i sistemeve gjeneruese të AI nga përdoruesit fundorë i kanë rritur në mënyrë eksponenciale këto sfida, duke e bërë më të lehtë jo vetëm modifikimin, por edhe krijimin e teksteve, imazheve dhe pjesëve audio të rreme që mund të duken reale. Pavarësisht ofrimit të mundësive për qëllime legjitime (p.sh., arti ose satira), përmbajtja e AI gjithashtu gjenerohet dhe shpërndahet gjerësisht në internet, duke shkaktuar – qëllimisht ose jo – dëm dhe mashtrim.

Në funksion të këtyre ndryshimeve të shpejta, është thelbësore të kuptojmë se si platformat përballen me sfidën e moderimit të përmbajtjeve të manipuluara dhe të gjeneruara nga AI që mund të përfundojnë duke qarkulluar si keqinformim ose dezinformim

Shtrirje e përmirësuar

Në një shënim pozitiv, Facebook dhe Instagram, duke qenë të dy produkte Meta, kanë përafruar politikat e tyre të moderimit të përmbajtjes. Prandaj, përmbajtja që vlerësohet si false ose pjesërisht false në Facebook do të etiketohet automatikisht si e tillë në Instagram dhe anasjelltas. Ky lloj harmonizimi i politikave ndër-platformë është shumë i dëshirueshëm. Në këtë kuptim, një trend pozitiv është se këto Platforma Shumë të Mëdha Online (VLOP) bashkëpunojnë me kontrollues faktesh nga Rrjeti Ndërkombëtar i Kontrollit të Fakteve.

Mbrojtja e të miturve

Është e drejtë të përmendet se, të paktën në letër, platformat duket se i kushtojnë vëmendje të veçantë mbrojtjes së të miturve, p.sh. parandalimin e mediave sintetike që përmbajnë ngjashmërinë e një të riu (rasti i TikTok).

Mungesa e dispozitave specifike për përmbajtjen e manipuluar ose të gjeneruar nga AI

Në rastin e YouTube, kjo përmbajtje trajtohet me të vërtetë, por me një shtrirje shumë të kufizuar: përmbajtja e krijuar në mënyrë programore përmendet në udhëzimet e AdSense dhe përmbajtja sintetike në politikën e reklamave politike të Google (në fuqi nga mesi i nëntorit 2023), por jo në pjesën tjetër. Mangësitë e tjera të fushës përfshijnë mospërmendjen e tekstit të krijuar nga AI ose fokusimin në përmbajtje të manipuluar dhe jo të gjeneruar. Platformat zakonisht flasin për përmbajtje të ‘manipuluar’, por pjesa më e madhe e saj është e krijuar rishtazi dhe jo e përpunuar, dhe për këtë arsye duhet të trajtohet në një mënyrë tjetër.

Sfidat për të adresuar përmbajtjen e krijuar nga AI

Disa argumente duket se sugjerojnë se përmbajtja e krijuar nga AI është e nënrregulluar nga platformat e analizuara. Platformat që përmendin këtë teknologji në zhvillim flasin për përmbajtje sintetike ose “media” të manipuluara duke iu referuar fotografive ose videove, por ndonjëherë anashkalojnë tekstin e krijuar nga AI. Për më tepër, ata nuk dallojnë përmbajtjen (të modifikuar) e manipuluar nga AI dhe përmbajtjen e gjeneruar nga AI. Me pak fjalë, shumica e politikave dështojnë të pasqyrojnë mundësitë e reja që AI gjeneruese prezanton. Vlen gjithashtu të theksohet se një nga sfidat më të mëdha është zbulimi i përmbajtjes së manipuluar dhe të gjeneruar nga AI. Kur përmbajtja është e vështirë për t’u zbuluar, ajo vështirë se mund të moderohet.

Premisa subjektive për moderimin e përmbajtjes së manipuluar ose të krijuar nga AI

Kur trajtojnë përmbajtjen e manipuluar ose të krijuar nga AI në politikat e tyre, platformat përmendin si arsyetim për moderimin e përmbajtjes rrezikun që përdoruesit fundorë të mashtrohen. Për shembull, rreziku që marrësi i përmbajtjes të mos e kuptojë se media është manipuluar ose fabrikuar. Bazimi i moderimit të përmbajtjes në një premisë të tillë subjektive mund të jetë gjithsesi për interpretim dhe mund të shfrytëzohet potencialisht për të shmangur rregullimin. Për shembull, me ngarkuesit që pretendojnë se përmbajtja është satirë ose parodi, kjo lejohet në platforma.

Përditësime të kufizuara mbi politikat e dezinformimit

Në një shënim tjetër, vetëm tre platforma përditësuan politikat e tyre kundër dezinformimit këtë vit: X, Facebook dhe TikTok. Edhe pse vetëm TikTok shfrytëzoi rastin për të trajtuar më tej më në thellësi konsideratat gjeneruese të AI. Google (dhe YouTube) gjithashtu kohët e fundit e trajtuan këtë çështje, por me një shtrirje të kufizuar: vetëm për reklamat politike. Facebook, për shembull, përditësoi politikën e tij të dezinformimit korrikun e kaluar, por asgjë nuk ndryshoi në lidhje me përmbajtjen e manipuluar me AI nga politika e tij e vitit 2020.

Fokusimi në etiketimin e përmbajtjes së krijuar nga AI

Pasi Bashkimi Evropian u kërkoi nënshkruesve të Kodit të Praktikës për Dezinformimin në internet që të etiketonin përmbajtjen e krijuar nga AI, disa platforma ndërmorën veprime. Për shembull, TikTok ka inkorporuar tashmë një mjet të ri për përdoruesit për të etiketuar përmbajtjen e gjeneruar nga AI, duke rritur më tej pajtueshmërinë me përditësimin e fundit të politikës së tij. Sipas raportimeve, Meta po punon gjithashtu për etiketat, por vetëm për përmbajtjen e krijuar me produktet e tyre të AI. Në rastin e X, disa e kanë parë rritjen e Shënimeve të Komunitetit si mundësi të reja për etiketimin e këtij lloji të përmbajtjes, megjithëse nuk ka pasur një ndryshim të politikës deri më sot. Sa i përket YouTube, kompania e saj mëmë Google njoftoi detyrimin për të etiketuar përmbajtjen sintetike në reklamat politike në rajone të caktuara. Me fjalë të tjera, me një aplikim shumë të kufizuar që nuk përbën kurrë një politikë të përgjithshme për të gjithë video platformën. Ndërsa është shumë herët për të vlerësuar efektivitetin e kësaj qasjeje, ne besojmë se etiketimi duhet të plotësojë masa të tjera moderimi. Përveç kësaj, kjo masë hap shumë pyetje, d.m.th., deri në çfarë mase etiketimi i përmbajtjes së krijuar nga AI do të parandalojë dënime të tjera më të ashpra?

Share With Others

Translate »