[email protected]
Njerëzit mund të kenë më shumë gjasa të besojnë dezinformatat e krijuara nga Inteligjenca Artificiale
shape
shape
shape
EDU

Artikull i publikuar nga TechnologyReview.com


Sipas autorëve të studimit, mënyra sesi Inteligjenca Artificiale (AI) modelon tekstin mund të ketë të bëjë me të.

Një studim i ri sugjeron se dezinformatat e gjeneruara nga AI mund të jenë më bindëse sesa dezinformatat e shkruara nga njerëzit.

Hulumtimi zbuloi se njerëzit kishin 3% më pak gjasa të dallonin tweet-et e rreme të krijuara nga AI sesa ato të shkruara nga njerëzit.

Ky hendek besueshmërie, edhe pse i vogël, është shqetësues duke pasur parasysh se problemi i dezinformatave të gjeneruara nga AI duket se do të rritet ndjeshëm, thotë Giovanni Spitale, studiuesi në Universitetin e Cyrihut që drejtoi studimin, i cili u shfaq sot në Science Advances  .

“Fakti që dezinformimi i gjeneruar nga AI nuk është vetëm më i lirë dhe më i shpejtë, por edhe më efektiv, më jep makthe”, thotë ai.

Ai beson se nëse ekipi do të përsëriste studimin me modelin më të fundit të gjuhës së madhe nga OpenAI, GPT-4, ndryshimi do të ishte edhe më i madh, duke pasur parasysh se sa më i fuqishëm është GPT-4.

Për të testuar ndjeshmërinë tonë ndaj llojeve të ndryshme të tekstit, studiuesit zgjodhën tema të zakonshme të dezinformimit, duke përfshirë ndryshimet klimatike dhe Covid. Më pas ata i kërkuan modelit të gjuhës së madhe të OpenAI-t GPT-3 të gjeneronte 10 cicërima të vërteta dhe 10 të rreme, dhe mblodhën një mostër të rastësishme të cicërimave të vërteta dhe të rreme nga Twitter.

Më pas, ata rekrutuan 697 njerëz për të përfunduar një kuiz në internet duke gjykuar nëse tweet-et ishin krijuar nga AI ose ishin mbledhur nga Twitter, dhe nëse ato ishin të sakta ose përmbanin dezinformata. Ata zbuluan se pjesëmarrësit kishin 3% më pak gjasa të besonin tweet-et e rreme të shkruara nga njeriu sesa ato të shkruara nga AI.

Studiuesit nuk janë të sigurt pse njerëzit mund të kenë më shumë gjasa të besojnë tweet-et e shkruara nga AI. Por mënyra në të cilën GPT-3 porosit informacionin mund të ketë të bëjë me të, sipas Spitale.

“Teksti i GPT-3 tenton të jetë pak më i strukturuar kur krahasohet me tekstin organik [të shkruar nga njeriu]. Por është gjithashtu i kondensuar, kështu që është më e lehtë për t’u përpunuar”, thotë ai.

Bumi gjenerues i AI vendos mjete të fuqishme dhe të arritshme të AI në duart e të gjithëve, përfshirë aktorët e këqij. Modele si GPT-3 mund të gjenerojnë tekst të pasaktë që duket bindës, i cili mund të përdoret për të gjeneruar tregime të rreme shpejt dhe me çmim të ulët për teoricienët e konspiracionit dhe fushatat e dezinformimit. Armët për të luftuar problemin – mjetet e zbulimit të tekstit të AI – janë ende në fazat e hershme të zhvillimit dhe shumë prej tyre nuk janë plotësisht të sakta.

OpenAI është i vetëdijshëm se mjetet e tij të AI mund të përdoren për të prodhuar fushata dezinformimi në shkallë të gjerë. Edhe pse kjo shkel politikat e saj, ajo lëshoi ​​një raport në janar duke paralajmëruar se “është e pamundur të sigurohet që modelet e mëdha gjuhësore të mos përdoren kurrë për të gjeneruar dezinformata”. OpenAI nuk iu përgjigj menjëherë një kërkese për koment.

Megjithatë, kompania ka kërkuar gjithashtu kujdes kur bëhet fjalë për mbivlerësimin e ndikimit të fushatave të dezinformimit. Hulumtime të mëtejshme nevojiten për të përcaktuar popullatat në rrezik më të madh nga përmbajtja jo-autentike e gjeneruar nga AI, si dhe marrëdhëniet midis madhësisë së modelit të AI dhe performancës së përgjithshme ose bindshmërisë së prodhimit të tij, thonë autorët e raportit të OpenAI.

Është shumë herët për panik, thotë Jon Roozenbeek, një studiues postdoc që studion dezinformatat në departamentin e psikologjisë në Universitetin e Kembrixhit, i cili nuk ishte i përfshirë në studim.

Megjithëse shpërndarja e dezinformatave në internet mund të jetë më e lehtë dhe më e lirë me AI sesa me fermat e trolleve me staf njerëzor, moderimi në platformat e teknologjisë dhe sistemet e automatizuara të zbulimit janë ende pengesa për përhapjen e tij, thotë ai.

“Vetëm për shkak se AI e bën më të lehtë shkrimin e një cicërimë që mund të jetë pak më bindëse se çfarëdo që doli nga disa lëngje të dobëta në një fabrikë në Shën Petersburg, nuk do të thotë domosdoshmërisht që krejt papritur të gjithë janë të pjekur për t’u manipuluar”, shton ai.

Share With Others