Një nga frikërat më të mëdha të kohëve moderne është se sistemet gjeneruese të AI-së po u japin aktorëve keqdashës fuqi të paprecedentë për të gënjyer, manipuluar dhe vjedhur në një shkallë të paimagjinueshme më parë dhe se kjo do të minojë sistemet tona të besimit, demokracisë dhe shoqërisë.
Shembuj të shumtë nga ndërhyrja në zgjedhje deri te prodhimi masiv i komenteve të rreme. Në të vërtetë, është e lehtë të imagjinohet se këto janë vetëm një pjesë e vogël e përpjekjes tinëzare që minon aktualisht mënyrën tonë të jetesës.
E vërteta është sigurisht më e nuancuar, por ngre pyetjen më të gjerë se si të kuptohen më mirë këto teknika keqdashëse të AI, ku po aplikohen, nga kush, në çfarë shkalle dhe për çfarë qëllimi.
Tani marrim një lloj përgjigjeje falë punës së Nahema Marchal në Google DeepMind dhe Rachel Xu në Google Jigsaw dhe kolegëve, të cilët kanë studiuar keqpërdorimin e AI gjeneruese dhe mënyrën se si ajo ka evoluar në dy vitet e fundit. Qasja e tyre ka zbuluar një shumëllojshmëri të gjerë të aktiviteteve me qëllim të keq që ata i kanë kategorizuar. “Ne ndriçojmë modelet kryesore dhe të reja të keqpërdorimit gjatë kësaj periudhe kohore, duke përfshirë motivimet e mundshme, strategjitë dhe mënyrën se si sulmuesit përdorin dhe abuzojnë me aftësitë e sistemit,” thonë ata.
Komunikimi Emergjent
Në këtë proces, ata kanë zbuluar gjithashtu disa lloje aktivitetesh që qëndrojnë në kufirin midis përdorimit të pranueshëm dhe të papranueshëm të AI. “Këto përfshijnë shfaqjen e formave të reja të komunikimit për shtrirjen politike, vetë-promovimin dhe avokimin që mjegullojnë linjat midis autenticitetit dhe mashtrimit,” thotë ekipi.
Qasja e tyre është çuditërisht e drejtpërdrejtë. Marchal, Xu dhe bashkë analizojnë mbi 200 raporte mediatike për abuzimin ose keqpërdorimin e sistemeve të AI të publikuara midis janarit 2023 dhe marsit 2024. Ata më pas kategorizojnë llojet dhe modelet e abuzimit të raportuar për të krijuar një taksonomi taktikash që përdorin aktorët keqdashës në punën e tyre.
Llojet e abuzimit ndahen në dy kategori të gjera – ato që shfrytëzojnë sistemet gjeneruese të AI dhe ato që përpiqen të komprometojnë të njëjtat sisteme për të zbuluar informacione të mbrojtura ose për të kryer detyra të ndaluara ndryshe, thonë studiuesit.
Më pas ata i ndajnë më tej këto kategori. Kategoria e parë dhe më e zakonshme që shfrytëzon AI gjeneruese përfshin përshkrimin realist të ngjashmërive njerëzore për detyra të tilla si imitimi, krijimi i personaliteteve sintetike dhe prodhimi i imazheve seksuale jo konsensuale. “Grupi më i përhapur i taktikave përfshin manipulimin e ngjashmërisë njerëzore, veçanërisht Impersonation,” thonë Marchal, Xu dhe bashkë.
Një shembull është një histori e publikuar në PBS News rreth AI bën thirrje robotike duke u përpjekur të shtypë votimin në New Hampshire duke imituar Presidentin Biden.
Kategoria e dytë përfshin përshkrimin realist të objekteve jo-njerëzore dhe përfshin falsifikimin e dokumenteve si letrat e identitetit, si dhe krijimin e falsifikimit të krijuar për t'u kaluar si gjë e vërtetë.
Kategoria e fundit, thonë ata, fokusohet në mekanizmat e prodhimit të përmbajtjes. Kjo përfshin automatizimin e flukseve të punës, prodhimin në një shkallë të gjerë dhe në mënyra që mund të synojnë individë të veçantë. Në një shembull Studiuesit përdorën ChatGPT për të dërguar email në masë të ligjvënësve për të rritur ndërgjegjësimin për emailet e krijuara nga AI.
Pavarësisht nga shumëllojshmëria e gjerë e aplikacioneve abuzive, Marchal, Xu dhe bashkë arrijnë në përfundimin se shumica përdorin aftësi gjeneruese të AI-së lehtësisht të arritshme sesa ato të sofistikuara teknologjikisht.
Ndoshta më interesante është shfaqja e formave të reja të komunikimit që mjegullojnë kufijtë e asaj që është dhe çfarë nuk është e pranueshme përdorimi i AI gjeneruese. Për shembull, gjatë zgjedhjeve të fundit në Indi kur U shfaqën avatarë politikë që u drejtoheshin votuesve individualë me emër duke përdorur çfarëdo gjuhe që flisnin dhe politikanë të ndryshëm përdorën “deepfake” të tyre për të përhapur mesazhin e tyre më gjerësisht, por edhe për ta portretizuar veten në një dritë më pozitive.
Pak nga këta shembuj e pranonin qartë mënyrën se si u përdor AI gjeneruese në këto fushata. “Kultivimi dhe avokimi i imazhit politik të fuqizuar nga GenAI pa zbulimin e duhur minon besimin e publikut duke e bërë të vështirë dallimin midis portretizimeve të vërteta dhe atyre të prodhuara”, thonë studiuesit. “Tashmë po shohim raste të dividendit të gënjeshtarëve, ku individët e profilit të lartë janë në gjendje të shpjegojnë provat e pafavorshme si të krijuara nga AI.”
Përforcimi i fitimit të parave
Përtej përpjekjeve për të imituar njerëzit dhe për të ushtruar ndikim të pahijshëm, qëllimi më i zakonshëm për përdoruesit me qëllim të keq të AI është të fitojnë para nga produktet. Shembujt përfshijnë gjenerimin masiv të artikujve, librave dhe reklamave me cilësi të ulët për të tërhequr sytë dhe për të gjeneruar të ardhura nga reklamat.
Prodhimi i imazheve seksuale jo-konsensuale është gjithashtu një fushë aktive e aktivitetit tregtar, për shembull, “lakuriqimi” i grave si një shërbim me pagesë.
Sigurisht, kërkimi ka disa kufizime që studiuesit janë të prirur t'i nxjerrin në pah. Për shembull, ai bazohet tërësisht në raportet e mediave për aktivitetin keqdashës në internet, një qasje që mund të sjellë paragjykime. Për shembull, media priret të përqendrohet në shembujt më të egër, të cilët mund të mbivlerësojnë lloje të caktuara të aktiviteteve sensacionale, ndërsa nënvlerësojnë aktivitete të tjera që janë më pak grabitëse, por po aq tinëzare.
Por Marchal, Xu dhe bashkë bëjnë një fillim të rëndësishëm në studimin e ekosistemit të përdorimeve me qëllim të keq të AI gjeneruese. Puna e tyre ngre pyetje të rëndësishme në lidhje me pasojat e gjera të këtij aktiviteti dhe se si ai po ndryshon natyrën e komunikimit dhe të vetë shoqërisë.
Ekipi nuk përpiqet të karakterizojë shkallën e ndryshimit, por nuk është e vështirë të imagjinohet se si ndikimi i këtyre aktiviteteve mund të rritet në mënyrë eksponenciale. Njerëzit nuk janë të mirë për të imagjinuar pasojat e ndryshimit eksponencial, gjë që e bën këtë edhe më shumë një çështje me shqetësim të madh publik.
“Këto gjetje nënvizojnë nevojën për një qasje të shumëanshme për zbutjen e keqpërdorimit të GenAI, duke përfshirë bashkëpunimin midis politikëbërësve, studiuesve, liderëve të industrisë dhe shoqërisë civile,” përfundojnë Marchal, Xu dhe bashkë. Sa më shpejt aq më mirë.
Ref: Keqpërdorimi gjenerativ i AI: Një taksonomi taktikash dhe njohurish nga të dhënat e botës reale: arxiv.org/abs/2406.13843