Routz Beleid voor het Gebruik van Kunstmatige Intelligentie

1. Inleiding

Routz  zet zich in voor volledige naleving van de toepasselijke wetten die gerelateerd zijn aan het gebruik van kunstmatige intelligentie in de landen waar Routz producten en diensten levert.  Daarnaast is Routz toegewijd aan het ethisch gebruik van kunstmatige intelligentie. Dit Beleid voor het Gebruik van Kunstmatige Intelligentie (“Beleid”) schetst de vereisten van Routz met betrekking tot de adoptie van alle vormen van kunstmatige intelligentie bij Routz. De adoptie van kunstmatige intelligentie omvat gebruik voor zakelijke efficiëntie, operaties en integratie in de producten en diensten van Routz.

Dit Beleid is van toepassing op alle Vertegenwoordigers van Routz, in overeenstemming met de definitie van AI-systemen zoals gespecificeerd in ISO/IEC 22989:2022. De Directie van Routz is verantwoordelijk voor naleving en toezicht op dit Beleid.

2. Definities

  • “Kunstmatige intelligentie” of “AI” betekent het gebruik van machinaal leren technologie, software, automatisering en algoritmen om taken uit te voeren en regels of voorspellingen te maken op basis van bestaande datasets en instructies.
  • “Een systeem van kunstmatige intelligentie” of “AI-systeem” betekent software die is ontwikkeld met een of meer van de technieken en benaderingen zoals vermeld in Bijlage I en die, voor een gegeven set door mensen gedefinieerde doelstellingen, output zoals inhoud, voorspellingen, aanbevelingen of beslissingen kan genereren die de omgevingen waarin ze interacteren beïnvloeden.
  • “Gesloten AI-systeem” betekent een AI-systeem waarbij de invoer door één gebruiker wordt gebruikt om het AI-model t trainen. Invoerdata van de gebruiker wordt gescheiden gehouden van andere gebruikers, en de data wordt beschouwd als veiliger. 
  • “Geïntegreerde AI-tools” betekent AI-tools die zijn opgenomen in bestaande softwaretools die zijn goedgekeurd en worden gebruikt bij Routz en die geen goedkeuring voor gebruik van de Directie vereisen.
  • Generatieve AI is een vorm van kunstmatige intelligentie die geautomatiseerd content creëert op basis van vragen of verzoeken van gebruikers.
  • “Niet-openbare Routz -gegevens” betekent elke informatie waarvan de openbaarmaking de privacy van individuen, overheidsregelgeving of – statuten zou kunnen schenden, de financiële situatie van Routz in gevaar zou kunnen brengen, de reputatie zou kunnen schaden of het concurrentievoordeel zou kunnen verminderen.
  • “Open AI-systeem” betekent een AI-systeem waarbij de invoer door alle gebruikers wordt gebruikt om het AI-model te trainen. Invoerdata van alle gebruikers is niet privé en kan aan andere gebruikers worden onthuld.
  • “Persoonlijke informatie” betekent informatie die een bepaald persoon of huishouden identificeert, beschrijft, daarmee in verband kan worden gebracht of redelijkerwijs rechtstreeks of indirect daarmee kan worden gelinkt.
  • “Vertegenwoordigers van Routz” betekent alle directeuren, leidinggevenden, bestuursleden, werknemers, contractanten, vertegenwoordigers,  gelieerde ondernemingen, agenten en iedere persoon of entiteit die diensten verleent voor of namens Routz.
  • “Directie” betekent de vertegenwoordiger van Routz die verantwoordelijk is voor AI.

3. Leidende Beginselen

De bedoeling van dit Beleid is om algemene richtlijnen te geven over het gebruik van AI bij Routz zodat Routz AI als een hulpmiddel kan inzetten terwijl het blijft voldoen aan wettelijke verplichtingen en ethisch blijft handelen. Het gebruik van AI bij Routz mag nooit de kernwaarden van Routz compromitteren of ongerechtvaardigd risico voor de organisatie introduceren. In plaats daarvan moet het gebruik van AI bij Routz gericht zijn op verbetering van zakelijke efficiëntie en het versterken van Routz’ vermogen om zijn missie te vervullen.

Dit Beleid is niet bedoeld om elk gebruik van AI bij Routz door een vertegenwoordiger van Routz aan te pakken. Er zijn bepaalde bedrijfsafdelingen en – functies bij Routz die meer overwegingen en potentiële risico’s met zich meebrengen.

Zie ook Verboden Gebruik in paragraaf 4 hieronder voor situaties waarin AI niet mag worden gebruikt bij Routz en AI systemen met Hoog Risico in paragraaf 6  hieronder voor situaties waarin extreme voorzichtigheid is geboden bij (het overwegen van) het gebruik van AI.

Daarnaast zijn er bepaalde Geïntegreerde AI-tools gebuikt in bestaande goedgekeurde Routz software die geen extra goedkeuring voor gebruik vereisen. Bijvoorbeeld het gebruik van Microsoft Word waarin Microsoft Word een AI-tool heeft geïntegreerd om spelling of grammatica te controleren. Het gebruik van Geïntegreerde AI-tools in goedgekeurde software bij Routz is toegestaan, mits de softwaretools in lijn zijn met eerder algemeen zakelijk gebruik

De volgende principes moeten worden gevolgd bij het overwegen van het gebruik van een AI-systeem bij Routz:

  1. AI-systemen worden getraind op data die inherent vooroordelen kan bevatten. Gebruikers van deze systemen zijn verantwoordelijk voor het beoordelen van door AI geproduceerde inhoud op vertekening en het zo nodig corrigeren ervan.
  2. Niet-openbare Routz-informatie mag nooit worden ingevoerd in een open AI-systeem.
  3. Alle door AI gegenereerde inhoud moet grondig worden beoordeeld door een individu met de expertise om dergelijke inhoud te evalueren op nauwkeurigheid, evenals algemene proeflezing en bewerking. Dit moet gebeuren in overeenstemming met de transparantie- en verantwoordingseisen. Door AI gegenereerde inhoud moet worden geschouwd als een startpunt, niet het eindproduct. Zoals alle inhoud bij Routz moet door AI gegenereerde inhoud overeenkomen met het uiterlijk en de identiteit van het Routzmerk.
  4. Het gebruik van een AI-systeem moet worden gedocumenteerd om institutionele kennis vast te leggen. Bijvoorbeeld, als AI wordt gebruikt om code te creëren en opgenomen wordt in een groter gedeelte van de code, moet er documentatie zijn over welk gedeelte van de code door AI is afgeleid en wie deze heeft beoordeeld.
  5. Het gebruik van een AI-systeem moet voldoen aan de gebruiksvoorwaarden of contractuele beperkingen.

Indien in voorkomende gevallen Routz medewerkers meewerken aan de ontwikkeling van een AI systeem worden de principes zoals beschreven in de norm ISO 44001 gevolgd. Zonodig worden de controles verder gespecificeerd.

4. Verboden gebruik

Er zijn bepaalde toepassingen van AI die verboden zijn. Tenzij anders goedgekeurd door de Directie is het Vertegenwoordigers van Routz verboden om AI system te gebruiken voor een van de volgende activiteiten:

  1. AI-systemen gebruiken om studenten, kandidaten, werknemers, contractanten of andere gelieerde entiteiten te identificeren of categoriseren is verboden.
  2. Handelsgeheimen, vertrouwelijke informatie, clausules met klanten, sensitieve informatie of persoonlijke gegevens over individuen invoeren in een open AI-systeem is ten strengste verboden.
  3. Gevoelige informatie van een individu invoeren in een AI-systeem. “Gevoelige informatie” omvat medische, financiële, politieke voorkeur, of ethische afkomst, religieuze overtuigingen, geslacht, seksuele geaardheid, of andere privé zaken.
  4. Een AI-systeem gebruiken om juridisch advies te verkrijgen, inclusief maar niet beperkt tot het maken van beleid voor intern gebruik of om te verstrekken aan derde partijen.
  5. Het creëren van intellectueel eigendom dat Routz wenst te registreren en/of van aanzienlijke waarde is voor de organisatie.
  6. Het gebruik van tijd of middelen van Routz om inhoud te genereren met een AI-systeem dat illegaal, ongepast, schadelijk voor de merk- of reputatie van Routz , of respectloos naar anderen toe beschouwd zou worden.

5. Ethische richtlijnen

Routz wenst op een ethische manier te handelen bij het gebruik van AI, zoals gespecificeerd in de ethischer richtlijnen van ISO/IEC 38505-1:2017, en zorgt ervoor dat alle AI-toepassingen voldoen aan deze normen. Daarom kunnen er toepassingen van AI zijn die wettelijk toelaatbaar zijn, maar die niet voldoen aan de ethische vereisten,. Gebruik van een AI-systeem binnen Routz moet voldoen aan de volgende ethische richtlijnen:

  1. Integriteit bij Gebruik: Alle gebruikers van AI-systemen moeten eerlijk zijn over hoe AI heeft geholpen bij het verrichten van het werk. Zelfs als u een goedgekeurd AI-systeem voor een goedgekeurd gebruik gebruikt, moet u ervoor zorgen dat uw collega’s op de hoogte zijn van uw gebruik van het AI-systeem. Presenteer AI-generatie werk niet als uw eigen werk.
  2. Ongeautoriseerd Gebruik: Gebruik geen tijd of middelen van Routz om inhoud te genereren met een AI-systeem voor persoonlijk gebruik zonder voorafgaande goedkeuring van de Directie.

6. Hoog-risico gebruik van AI-systemen

Er zijn bepaalde toepassingen van AI-systemen die riskanter zijn dan andere. Als bedrijf zet Routz zich in om te voldoen aan alle wettelijke vereisten en richtlijnen met betrekking tot AI in de landen waarin het actief is. De Europese Unie heeft de volgende potentiële toepassingen van AI geclassificeerd als een hoog risico voor de gezondheid en veiligheid of de fundamentele rechten van natuurlijke personen. Daarom zijn er verschillende aanvullende vereisten voor het gebruik van AI-systemen in dergelijke gevallen. Deze vereisten worden vermeld in Bijlage II, waarbij bepaalde functies hieronder worden uitgelicht:

  • Persoonsgegevens in AI-systemen: AI dient met uiterste voorzichtigheid te worden gebruikt bij het invoeren van persoonlijke gegevens van een individu in een gesloten AI-systeem (het is verboden persoonlijke gegevens in een open AI-systeem te plaatsen).
  • Het Screenen van Sollicitanten: Kwesties van gelijkheid en inclusie rond het gebruik van AI in sollicitatieprocedures zijn een potentiële bron van geschillen. Het gebruik van AI-systemen bij het screenen wordt afgeraden.
  • Personeelsbeslissingen: AI dient voorzichtig gebruikt te worden voor elk gebruik gerelateerd aan beslissingen over promoties, behoud of soortgelijke personeelsbeslissingen. Er moet uiterste voorzichtigheid worden betracht om ervoor te zorgen dat vooroordelen (waaronder vooroordelen in bestaande datasets) worden vermeden.

7. Algemene standaarden en toegestaan gebruik

Behalve voor AI ingebedde hulpmiddelen in goedgekeurde software, moeten alle toepassingen van AI-systemen worden goedgekeurd door de Directie voorafgaand aan het gebruik om zo te zorgen dat zulk gebruik van het AI-systeem voldoet aan de volgende principes:

  • Wettelijk: Het gebruik van AI-systemen moet voldoen aan alle toepasselijke wetten en regelgevingen, evenals aan eventuele contractuele verplichtingen, beperkingen of restricties.
  • Ethisch: Het gebruik van AI-systemen moet zich houden aan ethische principes, eerlijk zijn en vooringenomenheid vermijden.
  • Transparant: Er moeten duidelijke richtlijnen en intern beleid zijn voor het gebruik van een AI-systeem.
  • Noodzakelijk: het gebruik van AI-systemen moet zijn voor een geldig zakelijk doel om de bedrijfsefficiëntie van Routz te verbeteren. Het gebruik van AI is geen vervanging voor menselijk kritisch denken of expertise.

8. Verplicht kennis nemen

Alle medewerkers van Routz die AI-systemen (gaan) gebruiken, moeten zich bekend maken met dit beleid.

9. Niet-naleving Rapporteren

Directeuren, leidinggevenden, werknemers en agenten van Routz die op de hoogte zijn van enig gedrag dat dit beleid mogelijk schendt, hebben de verantwoordelijkheid om dit te rapporteren. Individuen worden aangemoedigd dit te melden. Alle meldingen van vermoedelijk wangedrag of niet-naleving zullen onderzocht worden door de Directie, Human Resources of ander partijen van toepassing. Tenzij te kwader trouw gehandeld wordt, zullen werknemers van Routz niet worden onderworpen aan represailles voor het melden van mogelijke overtredingen.

Indien Routz vaststelt dat een medewerker van Routz die beleid na een afgerond onderzoek, afgeronde trainingen en toegekende trainingstijd, nog steeds niet naleeft kan de medewerker van Routz onderworpen worden aan disciplinaire maatregelen.

Bijlage I: AI Technieken en Benaderingen

Machine learning-benaderingen, inclusief gesuperviseerde, non-gesuperviserde en reinforcement learning, met behulp van een breed scala aan methoden, inclusief diepgaand leren.

Bijlage II: EU-vereisten voor Hoog-risico systemen

Om de risico’s van AI-systemen met een hoog risico die in de Unie in de handel zijn gebracht of op andere wijze in gebruik zijn gesteld voor gebruikers en betrokken personen te beperken, moeten bepaalde verplichte voorschriften van toepassing zijn, rekening houdend met het beoogde doel van het gebruik van het systeem en in overeenstemming met het systeem voor risicobeheer dat door de aanbieder wordt vastgesteld.

Datakwaliteit (43)

Op AI-systemen met een hoog risico moeten voorschriften van toepassing zijn met betrekking tot de kwaliteit van de gebruikte datareeksen, technische documentatie en registratie, transparantie en het verstrekken van informatie aan gebruikers, menselijk toezicht en robuustheid, nauwkeurigheid en cyberbeveiliging. Deze voorschriften zijn noodzakelijk om de risico’s voor de gezondheid, veiligheid en grondrechten waarvan in het licht van het beoogde doel van het systeem sprake is, te verminderen wanneer geen andere maatregelen redelijkerwijs beschikbaar zijn die de handel in mindere mate beperken, zodat ongerechtvaardigde beperkingen van de handel worden voorkomen.

Toegang tot hoofwaardige datasets (44-45):

Kwalitatief hoogwaardige data zijn essentieel voor de prestaties van veel AI-systemen, met name wanneer technieken worden gebruikt waarbij modellen worden getraind, om ervoor te zorgen dat AI-systemen met een hoog risico zoals beoogd en veilig werken en geen bron van discriminatie worden die uit hoofde van het Unierecht verboden is. Kwalitatief hoogwaardige datareeksen voor training, validatie en tests vereisen de uitvoering van passende praktijken voor databeheer. datareeksen voor training, validatie en tests moeten voldoende relevant, representatief, foutloos en volledig zijn met het oog op het beoogde doel van het systeem. De datareeksen moeten bovendien de passende statistische kenmerken hebben, waaronder met betrekking tot de personen of groepen personen waarvoor de AI-systemen met een hoog risico moeten worden gebruikt. Ten aanzien van datareeksen voor training, validatie en tests moet, voor zover vereist gezien het beoogde doel hiervan, met name rekening worden gehouden met de kenmerken, eigenschappen of elementen die specifiek zijn voor een bepaalde geografische, gedrags- of functionele omgeving of context waarin het AI-systeem moet worden gebruikt. Om het recht van anderen te beschermen tegen discriminatie die kan voortvloeien uit de vertekening (bias) in AI-systemen, moeten aanbieders ook bijzondere categorieën persoonsgegevens kunnen verwerken wanneer sprake is van een zwaarwegend algemeen belang, teneinde de monitoring, opsporing en correctie van vertekening in verband met AI-systemen met een hoog risico te waarborgen.

Informatie over de manier waarop AI-systemen met een hoog risico zijn ontwikkeld en hoe zij gedurende hun levensduur presteren, is essentieel om de overeenstemming met de voorschriften van deze verordening te controleren. Dit vereist de registratie en de beschikbaarheid van technische documentatie die de noodzakelijke data bevat om de overeenstemming van het AI-systeem met de desbetreffende voorschriften te beoordelen. Dergelijke informatie moet de algemene kenmerken, mogelijkheden en beperkingen van het systeem omvatten, evenals algoritmen, data en gebruikte processen voor het trainen, testen en valideren, alsook documentatie met betrekking tot het desbetreffende systeem voor risicobeheer. De technische informatie moet actueel worden gehouden.

Administratie en technische documentatie (46)

Informatie over de manier waarop AI-systemen met een hoog risico zijn ontwikkeld en hoe zij gedurende hun levensduur presteren, is essentieel om de overeenstemming met de voorschriften van deze verordening te controleren. Dit vereist de registratie en de beschikbaarheid van technische documentatie die de noodzakelijke data bevat om de overeenstemming van het AI-systeem met de desbetreffende voorschriften te beoordelen. Dergelijke informatie moet de algemene kenmerken, mogelijkheden en beperkingen van het systeem omvatten, evenals algoritmen, data en gebruikte processen voor het trainen, testen en valideren, alsook documentatie met betrekking tot het desbetreffende systeem voor risicobeheer. De technische informatie moet actueel worden gehouden.

Transparantie (47):

Om de ondoorzichtigheid aan te pakken, die ertoe leidt dat bepaalde AI-systemen ondoorgrondelijk of te complex zijn voor natuurlijke personen, moet een bepaalde mate van transparantie vereist zijn voor AI-systemen met een hoog risico. Gebruikers moeten de output van het systeem kunnen interpreteren en dienovereenkomstig kunnen gebruiken. AI-systemen met een hoog risico moeten derhalve vergezeld gaan van relevante documentatie en gebruiksaanwijzingen en beknopte en duidelijke informatie bevatten, waar passend ook met betrekking tot mogelijke risico’s voor de grondrechten en risico’s op discriminatie.

Menselijk toezicht (48):

AI-systemen met een hoog risico moeten op zodanige wijze worden ontworpen en ontwikkeld dat natuurlijke personen toezicht kunnen houden op de werking ervan. Met het oog hierop moeten passende maatregelen voor menselijk toezicht worden bepaald door de aanbieder van het systeem voordat dit in de handel wordt gebracht of in gebruik wordt gesteld. Dergelijke maatregelen moeten, waar passend, met name waarborgen dat voor het systeem ingebouwde operationele beperkingen gelden die niet door het systeem zelf kunnen worden omzeild, dat het systeem reageert op de menselijke exploitant en dat de natuurlijke personen aan wie de taak van het menselijke toezicht is toegewezen, beschikken over de noodzakelijke competenties, opleiding en autoriteit om deze taak uit te voeren.

Nauwkeurigheid, robuustheid en cybersecurity (49-51):

AI-systemen met een hoog risico moeten gedurende hun levenscyclus consistent presteren en een passend niveau van nauwkeurigheid, robuustheid en cyberbeveiliging behalen in overeenstemming met de algemeen erkende stand van de techniek. De mate van nauwkeurigheid en de maatstaven voor de nauwkeurigheid moeten aan de gebruikers worden meegedeeld.

De technische robuustheid is een essentieel voorschrift voor AI-systemen met een hoog risico. Deze systemen moeten bestand zijn tegen risico’s in verband met de beperkingen van het systeem (bv. fouten, onregelmatigheden, onverwachte situaties) en tegen kwaadwillige acties die de beveiliging van het AI-systeem in gevaar kunnen brengen en kunnen leiden tot schadelijk of anderszins ongewenst gedrag. Wanneer niet tegen deze risico’s wordt beschermd, kan dit leiden tot veiligheidseffecten of negatieve gevolgen voor de grondrechten, bijvoorbeeld als gevolg van foutieve beslissingen of een onjuiste of vertekende output die door het AI-systeem wordt gegenereerd.

Cyberbeveiliging is cruciaal om te waarborgen dat AI-systemen bestand zijn tegen pogingen van derden die gebruikmaken van de kwetsbaarheden van het systeem om het gebruik, het gedrag of de prestaties ervan te wijzigen of de veiligheidskenmerken ervan in gevaar te brengen. Bij cyberaanvallen tegen AI-systemen kunnen AI-specifieke activa worden gebruikt, zoals datareeksen voor training (bv. datavervuiling) of getrainde modellen (bv. vijandige aanvallen), of kwetsbaarheden in de digitale activa van het AI-systeem of de onderliggende ICT-infrastructuur worden benut. Om te zorgen voor een niveau van cyberbeveiliging dat aansluit op de risico’s, moeten aanbieders van AI-systemen met een hoog risico derhalve passende maatregelen nemen, waarbij ook op passende wijze rekening wordt gehouden met de onderliggende ICT-infrastructuur.

Bron: EU-verordening inzake artificiële intelligentie, Overwegingen 43-51