Terwijl de Verenigde Staten en China elkaar wereldwijd proberen te overtroeven op het gebied van kunstmatige intelligentie, mengen nu ook Rusland en Belarus zich nadrukkelijker in deze technologische wedloop. De twee Oost-Europese landen zijn van plan om samen een eigen AI-model te ontwikkelen. De opvallende belofte: het systeem zou gebouwd worden rond zogenaamde traditionele waarden en bedoeld zijn om objectieve en betrouwbare informatie te leveren aan burgers en instellingen. Dat meldt het Belarussische staatspersbureau BelTA, dat daarmee het begin inluidt van een digitale alliantie tussen de twee buurlanden, met een duidelijke ideologische insteek.
AI als geopolitiek instrument
Volgens Sergei Glazyev, secretaris van de gezamenlijke economische commissie van Rusland en Belarus – een supranationale entiteit die de samenwerking tussen beide landen moet bevorderen – is het doel van het nieuwe AI-systeem niet slechts technologische innovatie op zich, maar het creëren van een ‘soevereine digitale omgeving’. In zijn woorden moet het gaan om een AI-ecosysteem dat past binnen de eigen culturele en morele kaders, waarin "fundamentele waarden" worden gerespecteerd.
Wat die waarden precies inhouden, blijft vaag. Glazyev spreekt over ondernemerschap dat ‘zinloos en zelfs destructief’ wordt als het losstaat van traditionele normen en culturele stabiliteit. Daarmee wordt AI niet alleen een technologisch project, maar ook een politiek en moreel project: een bewuste poging om zich af te zetten tegen de invloed van het Westen.
Reactie op het Westen – of digitale muur?
Volgens Glazyev is het systeem een direct antwoord op wat hij beschouwt als kwalijke tendensen in westerse AI-modellen. Hij waarschuwt voor "manipulatie van jongeren" via AI-tools die volgens hem normen en waarden ondermijnen. In zijn betoog haalt hij een recent – niet nader genoemd – voorbeeld aan waarin een AI-chatbot racistische of extremistische uitspraken zou hebben gedaan, waaronder het verheerlijken van fascistische ideologieën. Hoewel hij geen namen noemt, verwijst hij daarmee vermoedelijk naar Grok, het AI-model van Elon Musks bedrijf xAI. Dat model kwam recentelijk in opspraak na het verspreiden van antisemitische opmerkingen via platform X (voorheen Twitter). xAI bood daarna excuses aan en beloofde aanpassingen in het model.
Door zich hiermee te profileren, positioneren Rusland en Belarus hun geplande AI-systeem niet alleen als een technologische, maar ook als een morele tegenhanger van de Amerikaanse en Europese AI-bedrijven.
AI-ontwikkeling in eigen kring: YandexGPT en GigaChat
Rusland is overigens niet helemaal nieuw op het terrein van kunstmatige intelligentie. Grote Russische techbedrijven als Yandex en Sberbank hebben al eerder hun eigen taalmodellen ontwikkeld, met respectievelijke namen als YandexGPT en GigaChat. Deze systemen worden echter bekritiseerd vanwege de mate van censuur die erin is ingebouwd. Uit onafhankelijk academisch onderzoek van de Universiteit van Gent blijkt dat deze modellen tot de meest restrictieve ter wereld behoren op het gebied van politieke vrijheid.
Zo bleken gevoelige vragen over mensenrechten, militaire acties of de oorlog in Oekraïne vrijwel altijd genegeerd te worden. In een ranglijst waarin veertien grote AI-systemen wereldwijd werden vergeleken, scoorden de Russische modellen het hoogst op het gebied van censuur – zelfs hoger dan de bekende beperkingen van Chinese AI-systemen.
Het risico van AI in dienst van de staat
De ontwikkeling van een AI-systeem op basis van ‘traditionele waarden’ roept dan ook vragen op. Voorstanders in Rusland en Belarus zullen benadrukken dat het hierbij gaat om het beschermen van cultuur, familie, religie en nationale identiteit tegen de globaliserende en vaak liberale invloeden van buitenlandse technologie. Maar critici wijzen erop dat dit soort taal in het verleden vaak een eufemisme is geweest voor staatscensuur, onderdrukking van afwijkende meningen en het monddood maken van onafhankelijke media.
Als een AI-systeem namelijk niet alleen leert van grote hoeveelheden tekst, maar ook specifiek wordt gevoed met staatsgecontroleerde data en onderwerping aan politieke richtlijnen, dan ligt misbruik al snel op de loer. Niet voor niets waarschuwen experts dat AI in autoritaire staten kan fungeren als een verlengstuk van propaganda en staatscontrole.
Een wereld van AI-blokken?
De ontwikkeling van deze Russisch-Belarussische AI is een signaal dat kunstmatige intelligentie niet langer alleen wordt gezien als een technologische innovatie, maar ook als geopolitiek middel. Waar het internet ooit werd gepresenteerd als een wereldwijd netwerk dat grenzen zou overstijgen, lijkt AI juist opnieuw digitale grenzen te trekken. China heeft zijn eigen gesloten AI-ecosysteem, de VS domineren met bedrijven als OpenAI, Google en Meta, Europa zoekt een gereguleerde middenweg, en nu positioneren Rusland en Belarus zich als ‘beschermers van traditionele normen’.
Of dit initiatief zal leiden tot een levensvatbaar alternatief voor de dominante AI-platformen in het Westen is nog maar de vraag. De technologische achterstand en beperkte toegang tot internationale datasets vormen een structurele belemmering. Maar het ideologische doel – een digitale wereld waarin niet alleen economische, maar ook morele en culturele controle centraal staat – is voor Moskou en Minsk minstens zo belangrijk.
Conclusie: AI als spiegel van ideologie
De aankondiging van een gezamenlijk Russisch-Belarussisch AI-project op basis van traditionele waarden onderstreept hoezeer kunstmatige intelligentie is uitgegroeid tot een strijdtoneel voor invloed, identiteit en ideologie. Waar sommige landen inzetten op openheid en transparantie, kiezen anderen voor controle en culturele homogeniteit.
Voor gebruikers, beleidsmakers en technologen buiten deze invloedsferen is het een ontwikkeling om nauwlettend te volgen. AI is niet neutraal – het leert van mensen, van bronnen, en van de regels die worden opgesteld door de samenleving waarin het wordt ontwikkeld. Of dat leidt tot objectieve informatie, zoals Glazyev belooft, of tot digitale hersenspoeling, hangt sterk af van wie de data beheert en welke waarden als leidraad worden genomen.
Wat we hier zien is dus niet zomaar een nieuw AI-systeem, maar de contouren van een digitaal wereldbeeld – en de vraag is of dat beeld nog gedeeld wordt, of uiteenvalt in nationale spiegels met hun eigen normen, grenzen en waarheden.
Dit artikel is gebaseerd op een eerder verschenen Engelstalig artikel van The Moscow Times