Međunarodni institut za bliskoistočne i balkanske studije (IFIMES)[1] iz Ljubljane, Slovenija, redovno analizira dešavanja na Bliskom istoku, Balkanu i po svijetu. U tekstu pod naslovom „Prelazak s globalnog sjevera: Podaci koji pokreću umjetnu inteligenciju nisu prikladni za svoju svrhu – Uloga OSCE-a u promoviranju humanistički usmjerenog djelovanja i snažnih okvira zajednice izvan njegove mreže“, Nathan Coyle, viši savjetnik za PeaceTech na Austrijskom tehnološkom institutu, piše o tome kako OSCE može pomoći u zajedničkom dizajniranju modela umjetne inteligencije koji su kontekstualno relevantni i efikasni u promoviranju mira u regijama sklonim konfliktima.
Kako uloga umjetne inteligencije (AI) u izgradnji mira raste, tako raste i potreba za rješavanjem fundamentalnih predrasuda ugrađenih u podatke koji pokreću VI sisteme. Trenutno, preko 90% skupova podataka za obuku AI potiče iz Evrope i Sjeverne Amerike, ali većina globalnih sukoba se dešava izvan ovih regija. Ova razlika stvara kritičan izazov: AI sistemi obučeni na podacima koji odražavaju globalni sjever često ne uzimaju u obzir stvarnost sukoba na globalnom jugu. Ovo je posebno problematično u regijama kao što je Afrika, gdje se tradicionalni mehanizmi za rješavanje sukoba zasnovani na zajednici često zanemaruju u strategijama izgradnje mira vođenim VI. Organizacija za sigurnost i saradnju u Evropi (OSCE) ima ključnu ulogu u promjeni ove paradigme podsticanjem inkluzivnijeg pristupa prikupljanju podataka i obuci modela, osiguravajući da AI sistemi odražavaju različite kulturne i upravljačke prakse. Saradnjom s afričkim institucijama i lokalnim zainteresiranim stranama, OSCE može pomoći u zajedničkom dizajniranju VI modela koji su kontekstualno relevantni i efikasni u promoviranju mira u regijama sklonim sukobima. Ovaj rad tvrdi da bi, kako bi umjetna inteligencija zaista služila kao alat za globalni mir, njen razvoj mora biti vođen humanistički usmjerenim, kulturno inkluzivnim pristupom koji pojačava glasove i perspektive onih koji su najviše pogođeni sukobima.
Podaci – to je životna snaga umjetne inteligencije. Bez podataka, nema ni umjetne inteligencije; to dvoje ide ruku pod ruku, i jedno ne može postojati bez drugog. Pa kako možemo tvrditi da smo spremni koristiti umjetnu inteligenciju za društvenu koheziju kada su podaci na kojima treniramo naše modele inherentno rasistički i seksistički? Nažalost, osim ako ne dođe do promjene u društvu – budući da podaci koje prikupljamo samo odražavaju postojeće predrasude – nema konačnog rješenja. Međutim, nije sve tako crno. Možemo ublažiti ove predrasude transparentnošću u vezi s podacima koje prikupljamo, načinom na koji se nabavljaju i potencijalnim predrasudama ugrađenim u njih.
Kada je u pitanju korištenje umjetne inteligencije za izgradnju mira, suočavamo se s ovim izazovom, ali vjerovatno i većim. Analiza gotovo 4.000 javnih skupova podataka otkriva da preko 90% skupova podataka za obuku umjetne inteligencije dolazi iz Evrope i Sjeverne Amerike, dok manje od 4% dolazi iz Afrike[2]. Usporedimo ovo sa stvarnošću sukoba širom svijeta. Prema podacima koje je prošle godine objavio Međunarodni institut za istraživanje mira u Štokholmu (SIPRI)[3], 2023. godine samo 4% od 68 sukoba širom svijeta dogodilo se u Evropi, dok se 43% dogodilo u Africi, 25% u Aziji i 15% na Bliskom istoku[4]. Ne morate biti stručnjak za podatke da biste vidjeli oštru razliku: obuka sistema umjetne inteligencije za izgradnju mira s podacima koji ne odražavaju globalnu stvarnost je očigledno manjkava.
Tabela 1. Vizualni prikaz razlika u obuci modela umjetne inteligencije za globalne sukobe
Modeli umjetne inteligencije obučeni prvenstveno za govor mržnje na engleskom jeziku često ne uspijevaju otkriti štetnu retoriku na lokalnim dijalektima i jezicima koji se govore u regijama sklonim sukobima. Na primjer, tokom krize Rohingya u Mianmaru, govor mržnje se široko proširio na platformama društvenih medija na burmanskom jeziku, ali alati umjetne inteligencije za moderiranje nisu bili učinkoviti zbog nedostatka podataka za obuku na tom jeziku. Studija Gashea, Yimama i Assabiea (2024)[5] razvila je skup podataka o govoru mržnje na amharskom jeziku i predložila model dubokog učenja za klasifikaciju govora mržnje u kategorije poput rasnog, vjerskog i govora mržnje zasnovanog na spolu. Model je postigao F1-rezultat od 94,8, što naglašava važnost skupova podataka specifičnih za jezik za učinkovito otkrivanje govora mržnje.
Istraživanje Instituta za strateški dijalog (ISD)[6] otkrilo je da se amharski jezik koristi na platformama poput TikToka kako bi se zaobišli sistemi moderiranja. Korisnici su koristili taktike poput direktnog prevođenja govora mržnje na amharski jezik pomoću pisma Ge'ez ili postavljanja amharskog teksta pored govora mržnje napisanog na evropskom jeziku. Ova eksploatacija naglašava nedostatke sistema umjetne inteligencije za moderiranje koji nisu opremljeni za rukovanje jezicima s manje resursa.
Preporuke politika zasnovane na umjetnoj inteligenciji često se zasnivaju na skupovima podataka koji odražavaju modele upravljanja koji prevladavaju na globalnom sjeveru. Dok ovi modeli naglašavaju formalne pravne sisteme i izborne procese, mnoga postkonfliktna društva u Africi oslanjaju se na autohtone metode rješavanja sukoba ukorijenjene u kulturnim tradicijama. Neuspjeh u uključivanju ovih praksi u modele umjetne inteligencije može rezultirati neefikasnim ili čak kontraproduktivnim strategijama[7] izgradnje mira.
Tradicionalna afrička društva dugo su koristila autohtone institucije za rješavanje sukoba, na osnovu vrijednosti, normi i kulturnih uvjerenja koja praktikuju članovi zajednice. Ovi mehanizmi često uključuju porodične starješine, tradicionalne vođe i spiritualne medije, koristeći tehnike kao što su medijacija, pripovijedanje i duhovne ceremonije. Institucija tradicionalnog vodstva igra ključnu ulogu u promoviranju i održavanju društvenog sklada, a odluke zajednica[8] lako prihvata. Međutim, sistemi umjetne inteligencije obučeni na skupovima podataka koji naglašavaju zapadne pravne okvire možda ne prepoznaju ove prakse, što dovodi do preporuka politika koje nisu u skladu s lokalnim kontekstima[9].
Studija slučaja joruba društava u Nigeriji ističe kako starješine zajednice olakšavaju rješavanje sporova putem običajnih praksi. Ove autohtone institucije ostaju relevantne i danas, posebno u ruralnim zajednicama gdje je pristup formalnim pravnim sistemima ograničen. Međutim, sistemi umjetne inteligencije obučeni na skupovima podataka koji naglašavaju zapadne pravne okvire možda neće prepoznati ove prakse, što dovodi do preporuka politika koje nisu usklađene s lokalnim kontekstima[10].
Posljedice sjeverne pristranosti umjetne inteligencije u izgradnji mira protežu se izvan jezičnih barijera i u područje upravljanja i pomirenja. Strategije rješavanja sukoba vođene umjetnom inteligencijom obično naglašavaju formalne pravne postupke, što može potkopati tradicionalne mehanizme. Na primjer, algoritmi mašinskog učenja obučeni na sjevernim skupovima podataka mogu dati prioritet intervencijama sudskih organa u odnosu na prakse pomirenja koje vodi zajednica. Ovaj pristup može oslabiti autoritet tradicionalnih vođa i narušiti povjerenje zajednice u lokalne mehanizme[11] rješavanja sporova.
Štaviše, modeli umjetne inteligencije koji se koriste za predviđanje i ublažavanje sukoba možda ne uspijevaju uzeti u obzir neformalne taktike pregovaranja ugrađene u autohtone afričke sisteme upravljanja. Ako ovi modeli umjetne inteligencije generiraju preporuke politika koje favoriziraju napore izgradnje demokratije zapadnog stila u odnosu na lokalno prilagođene metode, riskiraju marginalizaciju učinkovitih strategija[12] rješavanja sukoba.
Na primjer, u post konfliktnoj Ruandi, tradicionalni sudovi Gacaca igrali su ključnu ulogu u olakšavanju pravde i pomirenja koje vodi zajednica nakon genocida. Ovi sudovi, zasnovani na principima restorativne pravde, omogućili su zajednicama da kolektivno rješavaju sporove. Međutim, sistemi umjetne inteligencije obučeni prvenstveno na evropskim pravosudnim modelima možda ne prepoznaju legitimnost takvih struktura, što dovodi do preporuka koje favoriziraju krivično gonjenje zapadnog stila u odnosu na lokalno ugrađene napore[13] pomirenja.
Organizacija za sigurnost i saradnju u Evropi (OSCE) sve više prepoznaje umjetnu inteligenciju kao alat za upravljanje, zaštitu ljudskih prava i sigurnost. Međutim, njene inicijative ostaju uglavnom eurocentrične, s ograničenim angažmanom u rješavanju izazova povezanih s umjetnom inteligencijom na globalnom jugu[14]. Izvještaji i konferencije OSCE-a o umjetnoj inteligenciji prvenstveno su se fokusirali na etička pitanja, dezinformacije i sigurnost izbora unutar Evrope, bez proširenja napora na regije poput Afrike, gdje bi utjecaj umjetne inteligencije na izgradnju mira mogao biti značajan. Iako OSCE promovira digitalnu pismenost i odgovorno korištenje umjetne inteligencije, malo je dokaza da ovi napori uključuju obuku modela umjetne inteligencije na različitim skupovima podataka koji odražavaju afričke prakse rješavanja sukoba.
Usprkos širokom mandatu OSCE-a o sigurnosti i izgradnji mira, njihove diskusije o umjetnoj inteligenciji ne bave se eksplicitno predrasudama u podacima o obuci umjetne inteligencije koje nesrazmjerno utiču na afričke kontekste. Mirovne inicijative organizacije naglašavaju praćenje izbora, medijsku pismenost i suzbijanje dezinformacija, ali ovi napori se ne prevode u opipljive akcije u razvoju politika vođenih umjetnom inteligencijom za Afriku. S obzirom na to da modeli umjetne inteligencije obučeni na evropskim i sjevernoameričkim skupovima podataka često ne prepoznaju domaće metode upravljanja i rješavanja sukoba, nedostatak angažmana OSCE-a u ovom području znači da postojeće predrasude u umjetnoj inteligenciji za izgradnju mira ostaju neosporne. Ovaj propust riskira jačanje zapadnocentričnih modela rješavanja sukoba, a istovremeno zanemaruje lokalno prilagođene strategije[15].
Da bi se umjetna inteligencija efikasno integrirala u globalne mirovne napore, institucije poput OSCE-a moraju proširiti svoj fokus izvan globalnog Sjevera. Značajan korak naprijed bio bi podsticanje partnerstava s afričkim istraživačkim institucijama i kreatorima politika kako bi se podržao razvoj modela umjetne inteligencije obučenih na različitim skupovima podataka. Iskorištavanjem svoje stručnosti u upravljanju i rješavanju sukoba, OSCE bi mogao igrati ključnu ulogu u ublažavanju predrasuda umjetne inteligencije i osiguravanju da se tehnologije izgradnje mira usklade s potrebama regija pogođenih sukobima širom svijeta. Bez takvih napora, strategije vođene umjetnom inteligencijom riskiraju marginalizaciju tradicionalnih mehanizama rješavanja sukoba i nametanje rješenja koja nisu prilagođena stvarnosti afričkih društava[16].
Kao što smo naučili, podaci odražavaju društvo, a kultura se značajno razlikuje od jednog društva do drugog. Za stvarnu promjenu u prikupljanju raznolikih podataka, institucije poput OSCE-a moraju iskoristiti svoj utjecaj kako bi unaprijedile vještine nacionalnih država u prikupljanju podataka i podijelile znanje za kreiranje politika i mehanizme informiranja vođene podacima. Austrija aktivno radi na oblikovanju pristupa usmjerenog na čovjeka unutar ovog globalnog dijaloga, sa PeaceTech Alliance[17] na Austrijskom institutu za tehnologiju, zajedno sa širokim modelom podrške, od Fondacije za otvoreno znanje, univerziteta i organizacija za izgradnju mira, uz aktiviranje mreža širom Evropske unije i Afričke unije kako bi se razmotrili pristupi usmjereni na čovjeka i izgradile inkluzivne kulture oko tehnologije.
Primjena ovih praksi za podršku državama u Africi u poboljšanju napora informiranja i prikupljanja podataka je neophodna. Međutim, da bi takve inicijative bile učinkovite, moraju ići dalje od država članica OSCE-a i aktivno uključiti države koje nisu članice OSCE-a u procese donošenja odluka.
Rad sa ili stvaranje kolaborativnog modela sličnog modelima kao što je Open PeaceTech Alliance – gdje međunarodni, regionalni i lokalni akteri zajednički dizajniraju inicijative za podatke i tehnologiju – podstakao bi osjećaj zajedničkog vlasništva i odgovornosti. Osiguravanjem da afričke države i lokalne organizacije imaju mjesto za stolom, ovaj pristup može poboljšati legitimnost, tačnost i etičku primjenu podataka u naporima za izgradnju mira. Okvir u zajedničkom vlasništvu ne samo da bi poboljšao povjerenje u prikupljanje podataka, već bi i osigurao da su modeli umjetne inteligencije obučeni za sprječavanje sukoba informirani različitim, kontekstualno relevantnim perspektivama.
Koncept PeaceTecha ovdje ima svoju ulogu. Iako ga neki mogu odbaciti kao još jednu popularnu riječ, naglasak na korištenju tehnologije za mir je nešto što moramo potaknuti i druge sektore da prihvate i pozdrave kada to učine. Postoji vrlo stvaran deficit digitalnih vještina među graditeljima mira koji rade na terenu, što čini pristup usmjeren na čovjeka najvažnijim u trenutnim i post konfliktnim zonama. Ako tehnologija nije dostupna korisnicima koji mogu ostvariti najveći utjecaj, ona je beskorisna. Zato PeaceTech mora podsticati zajednice koje osiguravaju da je umjetna inteligencija izgrađena na poštenom i etičkom okviru i mreži koju OSCE može snažno iskoristiti.
O autoru:
Nathan Coyle je viši savjetnik za PeaceTech na Austrijskom tehnološkom institutu, gdje podržava razvoj PeaceTech Alliancea – humano-orijentiranog, globalno fokusiranog PeaceTech centra za Austriju, koji radi s vladom i partnerima za izgradnju mira širom zemlje. Također vodi PeaceTech u Austrijskom centru za mir.
Nathan Coyle je sarađivao s vladama širom svijeta kako bi unaprijedio njihove strategije digitalnog dosega i inovacija. Član je Kraljevskog društva umjetnosti u svojoj rodnoj Britaniji i pisac čiji su radovi objavljeni u The Guardianu, The Huffington Postu i drugim međunarodnim publikacijama. Autor je knjige Otvoreni podaci za sve: Korištenje otvorenih podataka za društveno dobro (Routledge). Gospodin Coyle je saradnik Međunarodnog instituta IFIMES i njegov saradnik.
Kao govornik, Nathan Coyle je održao predavanja o građanskim i društvenim tehnologijama u institucijama širom Evrope, uključujući Evropsku uniju, OSCE, UN-ov Cyber Hub i TEDx.
Prateći rad uz predavanje, 18. mart 2025., Palata Hofburg, OSCE https://www.osce.org/odihr/shdm_1_2025.
Organizatori: Međunarodni institut IFIMES pod finskim predsjedavanjem OSCE-om, Predstavnik OSCE-a za slobodu medija i Ured OSCE-a za demokratske institucije i ljudska prava (ODIHR). Naslov panela: Mediji, poremećaji (sukobi, tehnologije), istina i pomirenje.
Članak predstavlja stav autora i ne odražava nužno stav IFIMES-a.
Ljubljana/Beč, 12.maj 2025
[1] IFIMES – Međunarodni institut za bliskoistočne i balkanske studije sa sjedištem u Ljubljani, Slovenija, ima specijalni konsultativni status pri Ekonomsko-socijalnim vijećem ECOSOC/UN, New York, od 2018.godine i izdavač je međunarodne naučne revije “European Perspectives” link: https://www.europeanperspectives.org/en
[2] Heikkilä, M., & Arnett, S. (2024, December 18). This is where the data to build AI comes from. *MIT Technology Review*. https://www.technologyreview.com/2024/12/18/1108796/this-is-where-the-data-to-build-ai-comes-from/
[3] Stockholm International Peace Research Institute (SIPRI). (2024). SIPRI Yearbook 2024. https://global.oup.com/academic/product/sipri-yearbook-2024-9780198930570?cc=at&lang=en&utm_source
[4] Statista. (2023). Number of state-based conflicts worldwide by region. https://www.statista.com/statistics/298151/number-of-state-based-conflicts-worldwide-by-region/
[5] Gashe, S. M., Yimam, S. M., & Assabie, Y. (2024). Hate speech detection and classification in Amharic text with deep learning. arXiv preprint arXiv:2408.03849. https://arxiv.org/abs/2408.03849
[6] Institute for Strategic Dialogue (ISD). (2025). Research finds Amharic language used to evade TikTok moderation, bypass hate speech detection. Addis Standard. https://addisstandard.com/research-finds-amharic-language-used-to-evade-tiktok-moderation-bypass-hate-speech-detection/
[7] Kajihara, H. (2018). The limitations of AI in cross-cultural peacebuilding. Journal of AI & Society, 12(4), 234-250.
[8] Osei-Hwedie, K., & Rankopo, M. (2018). Traditional leadership and conflict resolution in Africa. African Journal of Social Policy, 16(1), 23-41.
[9] Asiedu, K. (2021). Artificial intelligence and indigenous peacebuilding: Challenges and opportunities. African Journal of AI & Society, 15(1), 102-119.
[10] Adegbite, S. (2022). Indigenous dispute resolution and the role of Yoruba elders in Nigeria. Journal of African Conflict Studies, 10(2), 45-67.
[11] Hendriks, F. (2021). AI and global governance: Challenges of inclusion and representation. Journal of Peacebuilding and AI, 14(3), 78-92.
[12] Mutisi, M. (2012). Gacaca courts in Rwanda: An indigenous approach to transitional justice. African Journal of Conflict Resolution, 12(1), 85-100.
[13] Organisation for Security and Co-operation in Europe (OSCE). (2023). Artificial intelligence and security: Challenges and opportunities for the OSCE region. OSCE Publications.
[14] Smith, L. (2022). Artificial intelligence in international peacebuilding: The missing Global South perspective. Journal of AI and Peace Studies, 11(2), 99-121.
[15] Miller, J. (2021). Bridging the AI divide: The role of international institutions in AI training data equity. Global AI Policy Journal, 9(3), 120-140.
[16] Austrian Institute of Technology. (n.d.). Open PeaceTech Alliance. Retrieved from peacetech-alliance.io