Premik onkraj globalnega severa: Podatki, ki poganjajo umetno inteligenco, ne ustrezajo svojemu namenu– vloga OVSE pri spodbujanju ozaveščanja, osredotočenega na človeka, in močnih okvirov skupnosti zunaj njenega omrežja

Mednarodni inštitut za bližnjevzhodne in balkanske študije (IFIMES)[1] iz Ljubljane v Sloveniji redno analizira dogajanje na Bližnjem vzhodu, Balkanu in po svetu. V besedilu z naslovom »Premik onkraj globalnega severa: Podatki, ki poganjajo umetno inteligenco, ne ustrezajo svojemu namenu – vloga OVSE pri spodbujanju ozaveščanja, osredotočenega na človeka, in močnih okvirov skupnosti zunaj njenega omrežja« Nathan Coyle, višji svetovalec za PeaceTech na Avstrijskem tehnološkem inštitutu, piše o tem, kako lahko OVSE pomaga pri sooblikovanju modelov umetne inteligence, ki so kontekstualno ustrezni in učinkoviti pri spodbujanju miru v regijah, nagnjenih h konfliktom.

● Nathan Coyle, član svetovalnega odbora IFIMES

 

Premik onkraj globalnega severa: Podatki, ki poganjajo umetno inteligenco, ne ustrezajo svojemu namenu– vloga OVSE pri spodbujanju ozaveščanja, osredotočenega na človeka, in močnih okvirov skupnosti zunaj njenega omrežja

 

Povzetek

Z naraščajočo vlogo umetne inteligence (UI) pri gradnji miru narašča tudi potreba po obravnavanju temeljnih pristranskosti, vgrajenih v podatke, ki poganjajo sisteme UI. Trenutno več kot 90 % naborov podatkov za usposabljanje UI izvira iz Evrope in Severne Amerike, vendar se večina globalnih konfliktov dogaja zunaj teh regij. Ta razlika ustvarja kritičen izziv: sistemi UI, usposobljeni na podatkih, ki odražajo globalni sever, pogosto ne upoštevajo realnosti konfliktov na globalnem jugu. To je še posebej problematično v regijah, kot je Afrika, kjer se tradicionalni mehanizmi za reševanje konfliktov, ki temeljijo na skupnosti, pogosto spregledajo v strategijah za gradnjo miru, ki jih poganja UI. Organizacija za varnost in sodelovanje v Evropi (OVSE) ima ključno vlogo pri spreminjanju te paradigme s spodbujanjem bolj vključujočega pristopa k zbiranju podatkov in usposabljanju modelov, s čimer zagotavlja, da sistemi UI odražajo različne kulturne in upravljavske prakse. S sodelovanjem z afriškimi institucijami in lokalnimi deležniki lahko OVSE pomaga pri sooblikovanju modelov UI, ki so kontekstualno ustrezni in učinkoviti pri spodbujanju miru v regijah, nagnjenih h konfliktom. Ta članek trdi, da mora umetna inteligenca, če želi resnično služiti kot orodje za globalni mir, njen razvoj temeljiti na človeku osredotočenem in kulturno vključujočem pristopu, ki krepi glasove in perspektive tistih, ki jih konflikti najbolj prizadenejo.

Ozadje

Podatki – to je življenjska sila umetne inteligence. Brez podatkov ni umetne inteligence; oboje gre z roko v roki in eno ne more obstajati brez drugega. Kako lahko torej trdimo, da smo pripravljeni uporabljati umetno inteligenco za socialno kohezijo, če so podatki, na katerih treniramo svoje modele, po naravi rasistični in seksistični? Žal, če v družbi ne pride do spremembe – saj podatki, ki jih zbiramo, zgolj odražajo obstoječe pristranskosti – ni dokončne rešitve. Vendar pa ni vse tako črno in mračno. Te pristranskosti lahko ublažimo s preglednostjo glede podatkov, ki jih zbiramo, njihovega izvora in morebitnih predsodkov, ki so v njih vgrajeni.

Ko gre za uporabo umetne inteligence za gradnjo miru, se soočamo s tem izzivom, a verjetno še večjim. Analiza skoraj 4000 javnih naborov podatkov ugotavlja, da več kot 90 % naborov podatkov za učenje umetne inteligence prihaja iz Evrope in Severne Amerike, manj kot 4 % pa iz Afrike[2]. Primerjajmo to z realnostjo konfliktov po vsem svetu. Glede na podatke, ki jih je lani objavil Stockholmski mednarodni inštitut za mirovne raziskave (SIPRI)[3], leta 2023 se je le 4 % od 68 konfliktov po svetu zgodilo v Evropi, 43 % v Afriki, 25 % v Aziji in 15 % na Bližnjem vzhodu[4]. Ni vam treba biti podatkovni znanstvenik, da bi videli očitno nesorazmerje: usposabljanje sistemov umetne inteligence za gradnjo miru s podatki, ki ne odražajo globalnih realnosti, je očitno pomanjkljivo.

Tabela 1. Vizualna predstavitev razlik v učenju modelov umetne inteligence za globalne konflikte

Poglejmo, kako to izgleda v praksi

Modeli umetne inteligence, usposobljeni predvsem za sovražni govor v angleškem jeziku, pogosto ne zaznajo škodljive retorike v lokalnih narečjih in jezikih, ki se govorijo v regijah, nagnjenih k konfliktom. Na primer, med krizo Rohingya v Mjanmaru se je sovražni govor močno razširil na platformah družbenih medijev v burmanščini, vendar so bila orodja za moderiranje umetne inteligence neučinkovita zaradi pomanjkanja podatkov za učenje v tem jeziku. Študija Gasheja, Yimama in Assabieja (2024)[5] je razvila nabor podatkov o sovražnem govoru v amharščini in predlagala model globokega učenja za razvrščanje sovražnega govora v kategorije kot so rasni, verski in sovražni govor na podlagi spola. Model je dosegel oceno F1 94,8, kar poudarja pomen jezikovno specifičnih naborov podatkov za učinkovito odkrivanje sovražnega govora.

Raziskava Inštituta za strateški dialog (ISD)[6]  je pokazala, da se amharščina uporablja na platformah kot je TikTok, za obhod sistemov moderiranja. Uporabniki so uporabljali taktike, kot je neposredno prevajanje sovražnega govora v amharščino z uporabo pisave ge'ez ali postavljanje amharskega besedila poleg sovražnega govora, napisanega v evropskem jeziku. Ta izkoriščanje poudarja pomanjkljivosti sistemov moderiranja z umetno inteligenco, ki niso opremljeni za delo z jeziki z manj viri.

Spregled tradicionalnih mehanizmov za reševanje konfliktov pri gradnji miru z umetno inteligenco

Priporočila politik, ki jih vodi umetna inteligenca, pogosto temeljijo na naborih podatkov, ki odražajo modele upravljanja, ki prevladujejo na globalnem severu. Medtem ko ti modeli poudarjajo formalne pravne sisteme in volilne procese, se številne postkonfliktne družbe v Afriki zanašajo na avtohtone metode reševanja konfliktov, ki temeljijo na kulturnih tradicijah. Če se te prakse ne vključijo v modele umetne inteligence, lahko to povzroči neučinkovite ali celo kontraproduktivne strategije za gradnjo miru[7]

Tradicionalne afriške družbe že dolgo uporabljajo avtohtone institucije za reševanje konfliktov, ki temeljijo na vrednotah, normah in kulturnih prepričanjih, ki jih prakticirajo člani skupnosti. Ti mehanizmi pogosto vključujejo družinske starešine, tradicionalne voditelje in duhovne medije, pri čemer uporabljajo tehnike, kot so mediacija, pripovedovanje zgodb in duhovni obredi. Institucija tradicionalnega vodstva igra ključno vlogo pri spodbujanju in ohranjanju družbene harmonije, pri čemer skupnost zlahka sprejema odločitve[8]. Vendar pa sistemi umetne inteligence, usposobljeni za uporabo naborov podatkov s poudarkom na zahodnih pravnih okvirih, teh praks morda ne prepoznajo, kar vodi do priporočil politik, ki niso skladna z lokalnim kontekstom[9]

Študija primera jorubskih družb v Nigeriji poudarja, kako starešine skupnosti olajšajo reševanje sporov z običajnimi praksami. Te avtohtone institucije ostajajo pomembne še danes, zlasti v podeželskih skupnostih, kjer je dostop do formalnih pravnih sistemov omejen. Vendar pa sistemi umetne inteligence, usposobljeni na naborih podatkov, ki poudarjajo zahodne pravne okvire, morda ne prepoznajo teh praks, kar vodi do priporočil politik, ki niso skladna z lokalnim kontekstom[10].

Morebitna neusklajenost s priporočili politik, ki temeljijo na umetni inteligenci

Posledice severne pristranskosti umetne inteligence pri gradnji miru segajo preko jezikovnih ovir in segajo na področje upravljanja in sprave. Strategije reševanja konfliktov, ki jih poganja umetna inteligenca, običajno poudarjajo formalne pravne postopke, kar lahko spodkopava tradicionalne mehanizme. Na primer, algoritmi strojnega učenja, usposobljeni na severnih naborih podatkov, lahko dajejo prednost sodnim posegom pred praksami sprave, ki jih vodi skupnost. Ta pristop lahko oslabi avtoriteto tradicionalnih voditeljev in spodkoplje zaupanje skupnosti v lokalne mehanizme za reševanje sporov[11].

Poleg tega modeli umetne inteligence, ki se uporabljajo za napovedovanje in blaženje konfliktov, morda ne upoštevajo neformalnih pogajalskih taktik, ki so vgrajene v avtohtone afriške sisteme upravljanja. Če ti modeli umetne inteligence ustvarijo politična priporočila, ki dajejo prednost prizadevanjem za izgradnjo demokracije v zahodnem slogu pred lokalno prilagojenimi metodami, tvegajo, da bodo marginalizirali učinkovite strategije reševanja konfliktov[12].

Na primer, po konfliktu v Ruandi so tradicionalna sodišča Gacaca igrala ključno vlogo pri spodbujanju pravosodja in sprave, ki jo vodi skupnost, po genocidu. Ta sodišča, ki temeljijo na načelih restorativne pravičnosti, so skupnostim omogočila, da so skupno reševale spore. Vendar pa sistemi umetne inteligence, usposobljeni predvsem po evropskih pravosodnih modelih, morda ne bodo prepoznali legitimnosti takšnih struktur, kar bi vodilo do priporočil, ki dajejo prednost pregonu po zahodnem vzoru pred lokalno uveljavljenimi prizadevanji za spravo[13]

Organizacija za varnost in sodelovanje v Evropi (OVSE) vse bolj priznava umetno inteligenco kot orodje za upravljanje, varstvo človekovih pravic in varnost. Vendar pa njene pobude ostajajo večinoma evrocentrične, z omejenim sodelovanjem pri reševanju izzivov, povezanih z umetno inteligenco, na globalnem jugu[14]. Poročila in konference OVSE o umetni inteligenci so se osredotočale predvsem na etične pomisleke, dezinformacije in varnost volitev v Evropi, ne da bi se prizadevanja razširila na regije, kot je Afrika, kjer bi lahko bil vpliv umetne inteligence na gradnjo miru velik. Čeprav OVSE spodbuja digitalno pismenost in odgovorno uporabo umetne inteligence, je malo dokazov, da ta prizadevanja vključujejo usposabljanje modelov umetne inteligence na različnih naborih podatkov, ki odražajo afriške prakse reševanja konfliktov.

Kljub širokemu mandatu OVSE na področju varnosti in gradnje miru, se v razpravah o umetni inteligenci ne obravnavajo izrecno pristranskosti v podatkih o usposabljanju za uporabo umetne inteligence, ki nesorazmerno vplivajo na afriške kontekste. Mirovne pobude organizacije poudarjajo spremljanje volitev, medijsko pismenost in boj proti dezinformacijam, vendar se ta prizadevanja ne prevedejo v oprijemljive ukrepe za razvoj politik za Afriko, ki jih poganja umetna inteligenca. Glede na to, da modeli umetne inteligence, usposobljeni na evropskih in severnoameriških naborih podatkov, pogosto ne prepoznajo avtohtonih metod upravljanja in reševanja konfliktov, pomanjkanje angažiranosti OVSE na tem področju pomeni, da obstoječe pristranskosti v umetni inteligenci za gradnjo miru ostajajo neizpodbitne. Ta spregled tvega okrepitev zahodno usmerjenih modelov reševanja konfliktov, hkrati pa zanemarja lokalno prilagojene strategije[15].

Da bi se umetna inteligenca učinkovito vključila v globalna mirovna prizadevanja, morajo institucije, kot je OVSE, razširiti svojo pozornost onkraj globalnega severa. Pomemben korak naprej bi bilo spodbujanje partnerstev z afriškimi raziskovalnimi ustanovami in oblikovalci politik za podporo razvoju modelov umetne inteligence, usposobljenih na različnih naborih podatkov. Z izkoriščanjem svojega strokovnega znanja na področju upravljanja in reševanja konfliktov bi OVSE lahko igrala ključno vlogo pri blaženju pristranskosti umetne inteligence in zagotavljanju, da so tehnologije za gradnjo miru usklajene s potrebami regij, ki jih je prizadel konflikt, po vsem svetu. Brez takšnih prizadevanj strategije, ki jih poganja umetna inteligenca, tvegajo marginalizacijo tradicionalnih mehanizmov za reševanje konfliktov in vsiljenje rešitev, ki niso primerne za realnost afriških družb.

Kot smo se naučili, podatki odražajo družbo, kultura pa se od družbe do družbe bistveno razlikuje. Za resničen premik pri zbiranju raznolikih podatkov morajo institucije, kot je OVSE, izkoristiti svoj vpliv za izboljšanje znanja nacionalnih držav pri zbiranju podatkov in izmenjavo znanja za oblikovanje politik, ki temeljijo na podatkih, in mehanizme ozaveščanja. Avstrija si v okviru tega globalnega dialoga aktivno prizadeva za oblikovanje pristopa, osredotočenega na človeka, z zavezništvom PeaceTech[16] na Avstrijskem tehnološkem inštitutu skupaj s širokim modelom podpornikov, ki sega od fundacije Open Knowledge, univerz in organizacij za gradnjo miru, ter aktivira mreže po vsej Evropski uniji in Afriški uniji, da bi razmislili o pristopih, osredotočenih na človeka, in zgradili vključujočo kulturo okoli tehnologije.

Uporaba teh praks za podporo državam v Afriki pri izboljšanju prizadevanj za ozaveščanje in zbiranje podatkov je bistvenega pomena. Da pa bi bile takšne pobude učinkovite, morajo preseči države članice OVSE in v procese odločanja aktivno vključiti države, ki niso članice OVSE. Sodelovanje z modelom, podobnim modelom, kot je zavezništvo Open PeaceTech, ali ustvarjanje takega modela sodelovanja, kjer mednarodni, regionalni in lokalni akterji sooblikujejo pobude za podatke in tehnologijo, bi spodbudilo občutek skupne odgovornosti in lastništva. Z zagotavljanjem, da imajo afriške države in lokalne organizacije sedež za mizo, lahko ta pristop okrepi legitimnost, natančnost in etično uporabo podatkov pri prizadevanjih za gradnjo miru. Okvir v solastništvu ne bi le izboljšal zaupanja v zbiranje podatkov, temveč bi tudi zagotovil, da so modeli umetne inteligence, usposobljeni za preprečevanje konfliktov, zasnovani na podlagi različnih, kontekstualno ustreznih perspektiv.

Koncept PeaceTech ima tukaj svojo vlogo. Čeprav ga nekateri morda zavračajo kot še eno modno besedo, moramo spodbuditi druge sektorje, da ga sprejmejo in pozdraviti, ko to storijo. Med mirovniki, ki delajo na terenu, obstaja zelo resničen primanjkljaj digitalnih veščin, zaradi česar je pristop, osredotočen na človeka, bistvenega pomena na sedanjih konfliktnih in postkonfliktnih območjih. Če tehnologija ni dostopna uporabnikom, ki lahko dosežejo največji vpliv, je neuporabna. Zato mora PeaceTech spodbujati skupnosti k zagotavljanju, da je umetna inteligenca zgrajena na poštenem in etičnem okviru ter omrežju, ki ga lahko OVSE močno izkoristi.

O avtorju: 

Nathan Coyle je višji svetovalec za PeaceTech na Avstrijskem tehnološkem inštitutu, kjer podpira razvoj zavezništva PeaceTech – humano usmerjenega in globalno usmerjenega središča PeaceTech za Avstrijo, ki sodeluje z vladnimi in mirovnimi partnerji po vsej državi. Prav tako vodi PeaceTech v Avstrijskem centru za mir.

Nathan Coyle sodeluje z vladami po vsem svetu pri krepitvi njihovih strategij digitalnega ozaveščanja in inovacij. Je član Kraljeve družbe za umetnost v svoji rodni Veliki Britaniji , njegova dela so bila objavljena v časopisih The Guardian, The Huffington Post in drugih mednarodnih publikacijah. Je avtor knjige Odprti podatki za vsakogar: Uporaba odprtih podatkov za družbeno dobro (Routledge). G. Coyle je član svetovalnega odbora Mednarodnega inštituta IFIMES.

Kot govornik je Nathan Coyle predaval o državljanski in družbeni tehnologiji v institucijah po vsej Evropi, vključno z Evropsko unijo, OVSE, kibernetskim središčem ZN in TEDx.

Prispevek k predavanju, 18. marec 2025, palača Hofburg, OVSE https://www.osce.org/odihr/shdm_1_2025.

Organiziral Mednarodni inštitut IFIMES pod finskim predsedovanjem OVSE, predstavnik OVSE za svobodo medijev in Urad OVSE za demokratične institucije in človekove pravice (ODIHR).

Naslov panela: Mediji, motnje (konflikti, tehnologije), resnica in sprava.

Članek predstavlja stališče avtorja in ne odraža nujno stališča IFIMES-a.

Ljubljana/Dunaj, 12.maj 2025


[1] IFIMES - Mednarodni inštitut za bližnjevzhodne in balkanske študije s sedežem v Ljubljani, Slovenija, ima poseben posvetovalni status pri Ekonomsko-socialnem svetu ECOSOC/OZN, New York, od leta 2018 in je izdajatelj mednarodne znanstvene revije »European Perspectives«, povezava: https://www.europeanperspectives.org/en

[2] Heikkilä, M., & Arnett, S. (2024, December 18). This is where the data to build AI comes from. *MIT Technology Review*. https://www.technologyreview.com/2024/12/18/1108796/this-is-where-the-data-to-build-ai-comes-from/

[3] Stockholm International Peace Research Institute (SIPRI). (2024). SIPRI Yearbook 2024. https://global.oup.com/academic/product/sipri-yearbook-2024-9780198930570?cc=at&lang=en&utm_source

[4] Statista. (2023). Number of state-based conflicts worldwide by region. https://www.statista.com/statistics/298151/number-of-state-based-conflicts-worldwide-by-region/

[5] Gashe, S. M., Yimam, S. M., & Assabie, Y. (2024). Hate speech detection and classification in Amharic text with deep learning. arXiv preprint arXiv:2408.03849. https://arxiv.org/abs/2408.03849 

[6] Institute for Strategic Dialogue (ISD). (2025). Research finds Amharic language used to evade TikTok moderation, bypass hate speech detection. Addis Standard. https://addisstandard.com/research-finds-amharic-language-used-to-evade-tiktok-moderation-bypass-hate-speech-detection/

[7] Kajihara, H. (2018). The limitations of AI in cross-cultural peacebuilding. Journal of AI & Society, 12(4), pp.234-250.

[8] Osei-Hwedie, K., & Rankopo, M. (2018). Traditional leadership and conflict resolution in Africa. African Journal of Social Policy, 16(1), pp.23-41.

[9] Asiedu, K. (2021). Artificial intelligence and indigenous peacebuilding: Challenges and opportunities. African Journal of AI & Society, 15(1), pp.102-119.

[10] Adegbite, S. (2022). Indigenous dispute resolution and the role of Yoruba elders in Nigeria. Journal of African Conflict Studies, 10(2), pp.45-67.

[11] Hendriks, F. (2021). AI and global governance: Challenges of inclusion and representation. Journal of Peacebuilding and AI, 14(3), pp.78-92.

[12] Mutisi, M. (2012). Gacaca courts in Rwanda: An indigenous approach to transitional justice. African Journal of Conflict Resolution, 12(1), pp.85-100.

[13] Organisation for Security and Co-operation in Europe (OSCE). (2023). Artificial intelligence and security: Challenges and opportunities for the OSCE region. OSCE Publications.

[14] Smith, L. (2022). Artificial intelligence in international peacebuilding: The missing Global South perspective. Journal of AI and Peace Studies, 11(2), pp.99-121.

[15] Miller, J. (2021). Bridging the AI divide: The role of international institutions in AI training data equity. Global AI Policy Journal, 9(3), pp.120-140.

[16] Austrian Institute of Technology. (n.d.). Open PeaceTech Alliance. Retrieved from peacetech-alliance.io