vak & mens
De EU komt als eerste ter wereld met uitgebreide AI‑wetgeving. Het kunstmatige intelligentierecht is binnenkort een zelfstandig rechtsgebied, voorspellen experts. Welke nieuwe vraagstukken brengt de AI Act mee – en wat betekent dat voor de advocatuur?
Het AI‑recht als vakgebied bestaat officieel nog niet, maar dat is slechts een kwestie van tijd, voorspelt Anton Ekker. De 47-jarige advocaat op het gebied van Digital Rights en AI vergelijkt het met het privacyrecht. ‘Toen ik afstudeerde in 2000 hadden we wel de Wet bescherming persoonsgegevens, maar in de advocatuur werd dat nog niet echt serieus genomen. Leuk voor erbij, maar je draaide niet een hele praktijk op het privacyrecht. Dat is nu wel anders.’ Hij verwacht dat het met AI ook zo gaat. ‘Het aanbod volgt de vraag. Na de komst van de AVG kwamen er steeds meer privacyadvocaten. Dat zal rondom dit thema ook gebeuren.’
Wat Ekker betreft, wordt het kunstmatige intelligentierecht spoedig toegevoegd aan de lijst van rechtsgebieden van de NOvA. ‘Het is een rechtsgebied in wording. Als de AI Act binnenkort in werking treedt, kun je spreken van een zelfstandig rechtsgebied.’ Advocaten die zich inschrijven op het AI‑recht moeten daar dan ook opleidingen over volgen. Ekker verwacht dat dat geen problemen zal opleveren. ‘Opleidingen in het veld van AI en recht schieten op het moment als paddenstoelen uit de grond.’
AI‑praktijk
Shima Abbady (29) voert al enkele jaren een ‘AI‑praktijk’. Ze is sinds zeven jaar advocaat AI & Data bij Bird & Bird in Den Haag. Daarnaast promoveert ze op AI‑regulering, op het snijvlak van recht en filosofie aan de ‘iHub’ van de Radboud Universiteit Nijmegen. Sinds een jaar of drie richt ze zich grotendeels op AI – zeldzaam voor het Nederlandse advocatenlandschap, aldus Abbady. ‘Bird & Bird is van origine een techkantoor, dus we deden altijd al veel op dat vlak. We hebben grote internationale bedrijven in de techsector als cliënt. Zelf houd ik me met AI bezig vanaf het moment dat het relevanter begon te worden voor de rechtspraktijk. Daarom ben ik ook gaan promoveren op het gebied van AI, in de hoop op symbiose met mijn praktijk.’
Abbady volgt de ontwikkelingen op het terrein van de AI Act op de voet. Ze verwacht dat (als zich geen obstakels in het formele goedkeuringsproces voordoen) er halverwege 2024 een definitieve versie van de AI Act ligt, die vervolgens gefaseerd in werking treedt. ‘Er is op dit moment nog weinig zekerheid, maar het is mogelijk dat de verordening al eind dit jaar of begin volgend jaar van kracht wordt voor de categorie verboden applicaties en medio volgend jaar voor general purpose AI. De meeste overige regels, waaronder die voor de hoog risicocategorie AI die op dit moment niet onder EU-productveiligheidswetgeving valt, gelden in dat geval vermoedelijk vanaf medio 2026. De regels voor de hoog risicosectoren die nu al moeten voldoen aan Europese productveiligheidswetgeving volgen waarschijnlijk rond 2027.’
Productveiligheid
‘De AI Act is in feite een productveiligheidscertificering,’ vertelt André Janssen, hoogleraar Burgerlijk Recht aan de Radboud Universiteit en deskundig in legal tech en kunstmatige intelligentie en recht. Producten die in de EU op de markt komen, moeten aan bepaalde kwaliteits- en veiligheidsvereisten voldoen. Een bekend voorbeeld daarvan is het CE-keurmerk, dat staat voor ‘Conformité Européenne’ en aangeeft dat een product voldoet aan alle Europese veiligheids-, gezondheids- en milieubeschermingseisen.
Ekker benadrukt dat veel vragen rondom AI kunnen worden beantwoord met de al bestaande (grond)‑wettelijke normen. Hij noemt als voorbeeld een zaak waarin het Europese Hof van Justitie het gebruik van machine learning verbood bij het analyseren van persoonsgegevens van luchtreizigers, wanneer op basis hiervan wordt besloten om een reiziger in bewaring te nemen. Dit verbod vloeide volgens het hof voort uit de Passenger Name Records Directive en het recht op een effectief rechtsmiddel (artikel 13 EVRM), dat een betrokkene bijvoorbeeld kan aanwenden als hij meent dat er sprake is van directe of indirecte discriminatie.
De nieuwe AI‑wetgeving bevat overwegend regels en plichten voor producenten van kunstmatige intelligentie. Janssen verwacht dan ook dat de AI Act in eerste instantie vooral werk biedt aan advocatenkantoren die techbedrijven en AI‑ontwikkelaars bijstaan. Daarna wordt het rimpeleffect van de AI Act merkbaar, door nieuwe rechtsvragen over AI en onder andere contractenrecht en aansprakelijkheidsrecht.
Janssen noemt de medische sector als voorbeeld. Stel dat een robot met kunstmatige intelligentie zelfstandig een operatie uitvoert, zonder aanwezigheid van een arts. Hoe zit het dan met de aansprakelijkheid als er iets misgaat? Is de AI in de operatierobot naar het Nederlands recht een hulpzaak? Is het ziekenhuis contractueel aansprakelijk, of verschuift de aansprakelijkheid naar de producent? En hoe zit het met de arts die de robot inschakelt, maar verder geen enkele controle heeft?
Bovendien zorgt de komst van de AI Act volgens Abbady voor nieuwe compliance- en beleidsverplichtingen. AI‑aanbieders moeten bijvoorbeeld risicoassessments uitvoeren. Ook van gebruikers van AI‑toepassingen wordt verlangd dat ze eventuele risico’s in kaart brengen. ‘Denk bijvoorbeeld aan banken of hypotheekverstrekkers die AI gebruiken bij fraudeanalyses of kredietwaardigheidsonderzoeken. Zij dienen na te gaan of daarbij fundamentele rechten in het geding komen.’ Daarnaast komen op de producenten data governance-verplichtingen te rusten. Zo moeten AI‑producenten bijvoorbeeld een op bias geteste dataset gebruiken om de kunstmatige intelligentie te trainen. Ook dat levert werk op voor advocaten, voorspelt Abbady.
De AI Act gaat ook invloed hebben op partijen die niet direct gereguleerd worden, maar die wel in de ‘waardeketen’ zitten van gereguleerde bedrijven. Janssen haalt opnieuw het voorbeeld aan van de operatierobot met AI. Het bedrijf dat die robot levert, kan gereguleerd worden omdat het in de waardeketen van de AI‑aanbieder valt. Ook bedrijven die het AI‑basismodel van een producent doorontwikkelen voor hun eigen specifieke toepassingen vallen onder de AI Act.
Diverse cliënten
Cliënten kunnen volgens Abbady de AI Act niet nog even op het laatste moment implementeren in hun organisatie. ‘Vooral AI‑producenten kunnen te maken krijgen met zware compliance-trajecten, die flink wat tijd kosten. Daar te laat mee beginnen, kan betekenen dat een product niet op de Europese markt mag worden gebracht.’ Ze raadt AI‑producenten en ‑gebruikers aan zo snel mogelijk advies in te winnen over wat de AI Act voor hen gaat betekenen.
Zelf is Abbady daar inmiddels druk mee. Zo helpt ze cliënten de AI‑toepassingen binnen hun organisatie in kaart te brengen, om op basis van dat overzicht te bepalen welke juridische rechten en plichten gelden. Daarvoor moeten risicoanalyses worden gemaakt. Vervolgens helpt ze cliënten met hun beleid: hoe om te gaan met AI binnen de organisatie, het trainen van medewerkers en het aanpassen van contracten.
Naast grote IT-bedrijven die aankloppen voor advies ziet Abbady haar cliëntenkring diverser worden. ‘Steeds meer bedrijven integreren AI‑systemen in hun producten en bedrijfsprocessen. Dat kunnen ook zomaar bedrijven in de financiële sector of lifestylesector zijn, die je normaal gesproken niet zo snel zou linken aan AI.’
Specialisatie
Betekent de komst van de AI Act dat iedere advocaat straks kennis van AI moet hebben? Niet reëel, denkt Ekker. ‘Een arbeidsrechtadvocaat heeft al een hele kluif aan het bijhouden van alle ontwikkelingen in zijn rechtsgebied. Die gaat echt niet even het AI‑recht ernaast doen.’ Bovendien is het volgens hem niet noodzakelijk dat advocaten diepgaande technische kennis van kunstmatige intelligentie hebben. Affiniteit met het onderwerp is vaak voldoende.
De oplossing ligt volgens Ekker in meer interdisciplinaire samenwerking. ‘Advocaten gaan zich specialiseren, bijvoorbeeld in AI en aansprakelijkheid, of grondrechten en AI. Dat maakt het makkelijker voor advocaten om te zeggen: dit is niet mijn discipline, ik haal er even een collega bij.’
Abbady houdt zich bezig met AI‑gerelateerde kwesties die raken aan privacy, intellectuele eigendom, contractenrecht, aansprakelijkheidsrecht en ethiek. Op dit moment heeft ze nog overzicht van wat er speelt rondom AI. ‘Ik zal vast ook blinde vlekken hebben, maar klanten komen met de vraag: we willen AI gebruiken of AI ontwikkelen, wat moeten we doen? Heel open vragen, dus ik moet wel een idee hebben van er gaande is.’
Ook zij verwacht op termijn een meer gespecialiseerde praktijk te runnen. ‘Er gebeurt zoveel, het is bijna niet te doen om dat allemaal bij te houden.’ Abbady wil zich in de toekomst toeleggen op de regulering van AI. Ze hoopt dat andere advocaten zich ook gaan specialiseren. ‘Dan kan ik wat meer samenwerken met collega’s die zich toeleggen op een ander stukje. Dat doe ik nu bijvoorbeeld al met intellectueel eigendomsrecht, waarin ik zelf niet gespecialiseerd ben.’
Verantwoordelijkheden
Naast commerciële kansen brengt het AI‑recht volgens Abbady verantwoordelijkheden voor advocaten met zich mee. ‘Kunstmatige intelligentie kan flinke spanningen met de rechtsstaat opleveren en die staat al zo onder druk. We outsourcen verregaande verantwoordelijkheden naar computersystemen. Wie krijgt een hypotheek, wie niet? Wie worden toegelaten tot een onderwijsinstelling, wie niet? Mogen camera’s met gezichtsherkenning in openbare ruimtes worden geplaatst?’
Het is (mede) aan advocaten om de rechtsstaat te beschermen, aldus Abbady. ‘Wat betekent AI voor onze rechtsstaat en wat vinden we daarvan als advocaat? Het is de hoogste tijd voor advocaten om zich daarover een mening te vormen.’