Inteligjenca artificiale, do të na shkatërrojë, apo do të na shpëtojë? 

0
Shpërndaje lajmin

Një debat shekullor midis optimistëve të teknologjisë dhe pesimistëve të saj nuk ka të ndalur teksa pikërisht teknologjia, sa vjen e avancon.
Samiti i parë global i sigurisë së Inteligjencës Artificiale që do të organizohet në Mbretërinë e Bashkuar këtë javë, do të ketë shumë presion të industrisë mbi politikanët që marrin pjesë për të hequr dorë nga dënimi dhe për t’u bashkuar me zhvillimin interesant.
Përfitimet mund të jenë të pabesueshme. Inteligjenca artificiale mund të mundësojëë përgjigjet për disa nga sfidat ekzistenciale me të cilat përballet njerëzimi siç është përshpejtimi i zbulimit të trajtimeve të reja për sëmundje si demenca dhe kanceri; krijimi i antibiotikëve të rinj përballë rezistencës se mikrobeve.
Në nivel individual, eksperti dhe akademiku kryesor i Inteligjencës Artificiale, Stuart Russell, thotë se AI mund t’i sigurojë secilit prej nesh ekuivalentin e një “avokati, kontabilisti dhe këshilltari politik me fuqi të lartë” në çdo kohë. Ai tha se edhe shkollimi i fëmijëve do të jetë më i lehtë pikërisht falë Inteligjencës Artificiale, ndërsa theksoi se gjithkush mund ta përdorë AI për të bërë një terapi sa herë të ketë nevojë, transmeton euronews përcjell albinfo.ch.
Por këto avantazhe masive vijnë me rreziqe masive. Nuk është e tepërt të thuash se Inteligjenca Artificiale mund të përbëjë një kërcënim ekzistencial.
Ka veçori të AI që do t’i bëjnë të zbehta në krahasim revolucionet teknologjike që kemi përjetuar deri më sot. E para është shkalla e saj: AI ka lënë në fuqi Ligjin e Moore, i cili parashikonte se fuqia kompjuterike do të dyfishohej çdo dy vjet. Inteligjenca artificiale më e avancuar sot është 5 miliardë herë më e fuqishme se ajo e një dekade më parë.
Pra, po, AI do të rrisë produktivitetin dhe do të ndryshojë rrënjësisht natyrën e punës njerëzore, si teknologjitë paraardhëse të saj, por me një ritëm që nuk e kemi parë kurrë më parë. Ndërsa teknologjia nuk e ka gërryer kurrë nevojën për punë njerëzore – janë krijuar vende të reja pune pasi të tjerat kanë pushuar së ekzistuari – ajo ka përqendruar fuqinë ekonomike dhe ka nxitur pabarazinë.
A janë sistemet tona politike gati për këtë?
Ekziston një mungesë e mundshme e kontrollit njerëzor. Shumë modele të AI funksionojnë si një kuti e zezë, ato nuk kanë nevojë për dikë t’i kontrollojë. Është gati-gati e pamundur që të kontrollosh AI të ndjekë qëllime që nuk përputhen me interesat shoqërore. Me kompanitë e mediave sociale, ne kemi parë se çfarë ndodh kur motivet e tyre të fitimit i nxisin ata të krijojnë dëm përmes nxitjes së përmbajtjes polarizuese dhe dezinformimit; kjo ka rezultuar mjaft e vështirë për t’u rregulluar, pavarësisht faktit se ky është një fenomen lehtësisht i kuptueshëm dhe i parashikueshëm.
Sfida e kontrollit do të thotë se AI mund të japë fuqi të madhe për të shkatërruar interesat keqdashëse, apo edhe të evoluojë për t’u bërë vetë. Modelet ekzistuese të gjuhëve të mëdha si Chat GPT prodhojnë tashmë dezinformata të vështira për t’u vënë re, të kompletuara me citate të rreme. Në këto kushte është e vështirë për të dalluar të vërtetën nga propaganda.
Russell thekson se dyqanet e sanduiçëve i nënshtrohen më shumë rregulloreve sesa kompanitë e AI dhe se kur bëhet fjalë për teknologji të tjera që paraqesin rreziqe të mëdha për jetën e njerëzve, si aviacioni ose energjia bërthamore, ne nuk i lejojmë kompanitë t’i operojnë ato nëse nuk plotësojnë sigurinë minimale. Ai argumenton se zhvillimi i AI duhet të licencohet në të njëjtën mënyrë: nëse një kompani nuk mund të tregojë se teknologjia e saj është e sigurt, nuk duhet të lejohet ta lëshojë atë.
Çfarë do të thotë madje të bësh AI “të sigurt”?
Përgjigja është e qartë me aviacionin ose energjinë bërthamore; më pak me AI. Mungesa e përkufizimit të dakorduar ka dëmtuar përpjekjet për të rregulluar mediat sociale; dhe ndërsa do të ketë konsensus global për disa gjëra, do të ketë mosmarrëveshje të bazuara në vlera për të tjerat.
 
 

Leave a Reply

Your email address will not be published. Required fields are marked *