Inteligjenca artificiale (AI) profetët dhe lajmëtarët po parashikojnë fundin e zhurmës gjeneruese të AI, me biseda për një “kolaps modeli” katastrofik të afërt.
Por sa realiste janë këto parashikime? Dhe çfarë është gjithsesi kolapsi i modelit?
Diskutuar në 2023por e popullarizuar kohët e fundit“kolapsi i modelit” i referohet një skenari hipotetik ku sistemet e ardhshme të AI bëhen gjithnjë e më budallenj për shkak të rritjes së të dhënave të gjeneruara nga AI në internet.
Nevoja për të dhëna
Sistemet moderne të AI janë ndërtuar duke përdorur mësimi i makinës. Programuesit vendosin strukturën themelore matematikore, por “inteligjenca” aktuale vjen nga trajnimi i sistemit për të imituar modelet në të dhëna.
Por jo vetëm të dhëna. Prodhimi aktual i sistemeve gjeneruese të AI ka nevojë për të dhëna me cilësi të lartë, dhe shumë prej tyre.
Për të marrë burimin e këtyre të dhënave, kompanitë e mëdha të teknologjisë si OpenAI, Google, Meta dhe Nvidia kërkojnë vazhdimisht internetin, duke kërkuar terabajt përmbajtje për të ushqyer makinat. Por që nga ardhja e gjerësisht të disponueshme dhe të dobishme Sistemet gjeneruese të AI në vitin 2022, njerëzit po ngarkojnë dhe ndajnë gjithnjë e më shumë përmbajtjen e krijuar, pjesërisht ose tërësisht, nga AI.
Në vitin 2023, studiuesit filluan të pyesin nëse mund të shpëtonin vetëm duke u mbështetur në të dhënat e krijuara nga AI për trajnim, në vend të të dhënave të krijuara nga njeriu.
Ka stimuj të mëdhenj për ta bërë këtë punë. Përveç përhapjes në internet, përmbajtja e krijuar nga AI është shumë më lirë sesa të dhënat njerëzore në burim. Gjithashtu nuk është nga ana etike dhe ligjërisht e diskutueshme për të mbledhur në masë.
Sidoqoftë, studiuesit zbuluan se pa të dhëna njerëzore me cilësi të lartë, sistemet e AI u trajnuan mbi të dhënat e bëra nga AI bëhu më memec dhe më memec siç mëson çdo model nga ai i mëparshmi. Është si një version dixhital i problemit të inbreeding.
kjo “stërvitje regurgitive” duket se çon në një reduktim të cilësisë dhe diversitetit të sjelljes së modelit. Cilësia këtu afërsisht nënkupton një kombinim të të qenit ndihmues, i padëmshëm dhe i sinqertë. Diversiteti i referohet ndryshimit në përgjigje dhe të cilat perspektivat kulturore dhe sociale të njerëzve përfaqësohen në AI daljet.
Shkurtimisht: duke përdorur kaq shumë sistemet e AI, ne mund të ndotim vetë burimin e të dhënave që na duhen për t'i bërë ato të dobishme në radhë të parë.
Shmangia e kolapsit
A nuk mundet që teknologjia e madhe thjesht të filtrojë përmbajtjen e krijuar nga AI? Jo me të vërtetë. Kompanitë e teknologjisë tashmë shpenzojnë shumë kohë dhe para për pastrimin dhe filtrimin e të dhënave që grumbullojnë, me një të brendshëm të industrisë që së fundi ka ndarë që ato ndonjëherë i hedhin poshtë sa 90% të të dhënave që mbledhin fillimisht për modelet e trajnimit.
Këto përpjekje mund të bëhen më kërkuese pasi rritet nevoja për të hequr në mënyrë specifike përmbajtjen e krijuar nga AI. Por më e rëndësishmja, në afat të gjatë do të bëhet gjithnjë e më e vështirë të dallosh përmbajtjen e AI. Kjo do ta bëjë filtrimin dhe heqjen e të dhënave sintetike një lojë me kthime në rënie (financiare).
Në fund të fundit, hulumtimi i deritanishëm tregon se ne thjesht nuk mund t'i heqim plotësisht të dhënat njerëzore. Në fund të fundit, nga vjen “Unë” në AI.
A po shkojmë drejt një katastrofe?
Ka sugjerime që zhvilluesit tashmë duhet të punojnë më shumë për të marrë të dhëna me cilësi të lartë. Për shembull, dokumentacionin që shoqëronte lëshimin e GPT-4 kreditonte një numër të paprecedentë të stafit të përfshirë në pjesët e projektit që lidhen me të dhënat.
Mund të na mbarojnë edhe të dhënat e reja njerëzore. Disa vlerësime thonë se grupi i të dhënave tekstuale të krijuara nga njeriu mund të përgjohet sa më shpejt që në vitin 2026.
Ka të ngjarë pse OpenAI dhe të tjerët janë gara për të mbështetur partneritetet ekskluzive me gjigantë të industrisë si p.sh Shutterstock, Associated Press dhe NewsCorp. Ata zotërojnë koleksione të mëdha pronësore të të dhënave njerëzore që nuk janë lehtësisht të disponueshme në internetin publik.
Megjithatë, perspektivat e kolapsit të modelit katastrofik mund të mbivlerësohen. Shumica e hulumtimeve të deritanishme shikojnë rastet kur të dhënat sintetike zëvendësojnë të dhënat njerëzore. Në praktikë, të dhënat e njeriut dhe të AI ka të ngjarë të grumbullohen paralelisht, gjë që zvogëlon mundësinë e kolapsit.
Skenari më i mundshëm i ardhshëm do të shohë gjithashtu një ekosistem të platformave gjeneruese disi të ndryshme të AI që përdoren për të krijuar dhe publikuar përmbajtje, në vend të një modeli monolit. Kjo gjithashtu rrit qëndrueshmërinë ndaj kolapsit.
Është një arsye e mirë që rregullatorët të promovojnë konkurrencë të shëndetshme duke kufizuar monopolet në sektorin e AI, dhe për të financuar zhvillimi i teknologjisë me interes publik.
Shqetësimet e vërteta
Ekzistojnë gjithashtu rreziqe më delikate nga shumë përmbajtje të krijuara nga AI.
Një vërshim i përmbajtjes sintetike mund të mos përbëjë një kërcënim ekzistencial për përparimin e zhvillimit të AI, por kërcënon të mirën publike dixhitale të internetit (njerëzore).
Për shembull, studiuesit gjeti një rënie prej 16%. në aktivitet në faqen e kodimit StackOverflow një vit pas publikimit të ChatGPT. Kjo sugjeron që ndihma e AI tashmë mund të reduktojë ndërveprimet person me person në disa komunitete në internet.
Hiperprodhimi nga fermat e përmbajtjes të fuqizuara nga AI po e bën gjithashtu më të vështirë gjetjen e përmbajtjes që nuk është karrem i mbushur me reklama.
Është duke u bërë e pamundur të bëhet dallimi i besueshëm midis përmbajtjes së krijuar nga njeriu dhe atij të krijuar nga AI. Një metodë për të korrigjuar këtë do të ishte vendosja e ujit ose etiketimi i përmbajtjes së krijuar nga AI, siç kemi bërë unë dhe shumë të tjerë. theksuar së fundmidhe siç pasqyrohet në qeverinë e fundit australiane legjislacioni i përkohshëm.
Ka edhe një rrezik tjetër. Ndërsa përmbajtja e krijuar nga AI bëhet sistematikisht homogjene, ne rrezikojmë të humbasim diversiteti social-kulturor dhe disa grupe njerëzish madje mund të përjetonin fshirje kulturore. Na duhet urgjentisht kërkimi ndërdisiplinor në sfidat sociale dhe kulturore paraqitur nga sistemet e AI.
Ndërveprimet njerëzore dhe të dhënat njerëzore janë të rëndësishme dhe ne duhet t'i mbrojmë ato. Për hir të vetvetes, dhe ndoshta edhe për hir të rrezikut të mundshëm të një kolapsi modeli në të ardhmen.
Aaron J. SnoswellStudiues në Përgjegjësi të AI, Universiteti i Teknologjisë Queensland
Ky artikull është ribotuar nga Biseda nën një licencë Creative Commons. Lexoni artikull origjinal.

