vak & mens

AI bereikt advocatenpraktijk

De EU komt als eerste ter wereld met uitgebreide AI‑wetgeving. Het kunstmatige intelligentierecht is binnenkort een zelfstandig rechtsgebied, voorspellen experts. Welke nieuwe vraag­stukken brengt de AI Act mee – en wat betekent dat voor de advocatuur?

Het AI‑recht als vakgebied bestaat officieel nog niet, maar dat is slechts een kwestie van tijd, voorspelt Anton Ekker. De 47-jarige advocaat op het gebied van Digital Rights en AI vergelijkt het met het privacyrecht. ‘Toen ik afstudeerde in 2000 hadden we wel de Wet bescherming persoons­gegevens, maar in de advocatuur werd dat nog niet echt serieus genomen. Leuk voor erbij, maar je draaide niet een hele praktijk op het privacy­recht. Dat is nu wel anders.’ Hij verwacht dat het met AI ook zo gaat. ‘Het aanbod volgt de vraag. Na de komst van de AVG kwamen er steeds meer privacy­advocaten. Dat zal rondom dit thema ook gebeuren.’

‘Na de komst van de AVG kwamen er steeds meer privacy­advocaten. Dat zal rondom het thema AI ook gebeuren.’

Wat Ekker betreft, wordt het kunstmatige intelligentie­recht spoedig toegevoegd aan de lijst van rechtsgebieden van de NOvA. ‘Het is een rechtsgebied in wording. Als de AI Act binnenkort in werking treedt, kun je spreken van een zelfstandig rechtsgebied.’ Advocaten die zich inschrijven op het AI‑recht moeten daar dan ook opleidingen over volgen. Ekker verwacht dat dat geen problemen zal opleveren. ‘Opleidingen in het veld van AI en recht schieten op het moment als paddenstoelen uit de grond.’

AI‑praktijk

Shima Abbady (29) voert al enkele jaren een ‘AI‑praktijk’. Ze is sinds zeven jaar advocaat AI & Data bij Bird & Bird in Den Haag. Daarnaast promoveert ze op AI‑regulering, op het snijvlak van recht en filosofie aan de ‘iHub’ van de Radboud Universiteit Nijmegen. Sinds een jaar of drie richt ze zich grotendeels op AI – zeldzaam voor het Nederlandse advocatenlandschap, aldus Abbady. ‘Bird & Bird is van origine een techkantoor, dus we deden altijd al veel op dat vlak. We hebben grote internationale bedrijven in de techsector als cliënt. Zelf houd ik me met AI bezig vanaf het moment dat het relevanter begon te worden voor de rechtspraktijk. Daarom ben ik ook gaan promoveren op het gebied van AI, in de hoop op symbiose met mijn praktijk.’

Abbady volgt de ontwikkelingen op het terrein van de AI Act op de voet. Ze verwacht dat (als zich geen obstakels in het formele goed­keurings­proces voordoen) er halverwege 2024 een definitieve versie van de AI Act ligt, die vervolgens gefaseerd in werking treedt. ‘Er is op dit moment nog weinig zekerheid, maar het is mogelijk dat de verordening al eind dit jaar of begin volgend jaar van kracht wordt voor de categorie verboden applicaties en medio volgend jaar voor general purpose AI. De meeste overige regels, waaronder die voor de hoog risicocategorie AI die op dit moment niet onder EU-product­veilig­heids­wet­geving valt, gelden in dat geval vermoedelijk vanaf medio 2026. De regels voor de hoog risico­sectoren die nu al moeten voldoen aan Europese product­veiligheids­wetgeving volgen waarschijnlijk rond 2027.’

Anton Ekker

Productveiligheid

‘De AI Act is in feite een productveiligheidscertificering,’ vertelt André Janssen, hoogleraar Burgerlijk Recht aan de Radboud Universiteit en deskundig in legal tech en kunstmatige intelligentie en recht. Producten die in de EU op de markt komen, moeten aan bepaalde kwaliteits- en veilig­heids­vereisten voldoen. Een bekend voorbeeld daarvan is het CE-keurmerk, dat staat voor ‘Conformité Européenne’ en aangeeft dat een product voldoet aan alle Europese veiligheids-, gezondheids- en milieubeschermingseisen.

Ekker benadrukt dat veel vragen rondom AI kunnen worden beantwoord met de al bestaande (grond)‑wettelijke normen. Hij noemt als voorbeeld een zaak waarin het Europese Hof van Justitie het gebruik van machine learning verbood bij het analyseren van persoonsgegevens van luchtreizigers, wanneer op basis hiervan wordt besloten om een reiziger in bewaring te nemen. Dit verbod vloeide volgens het hof voort uit de Passenger Name Records Directive en het recht op een effectief rechtsmiddel (artikel 13 EVRM), dat een betrokkene bijvoorbeeld kan aanwenden als hij meent dat er sprake is van directe of indirecte discriminatie.

De nieuwe AI‑wetgeving bevat overwegend regels en plichten voor producenten van kunstmatige intelligentie. Janssen verwacht dan ook dat de AI Act in eerste instantie vooral werk biedt aan advocaten­kantoren die techbedrijven en AI‑ontwikkelaars bijstaan. Daarna wordt het rimpel­effect van de AI Act merkbaar, door nieuwe rechtsvragen over AI en onder andere contracten­recht en aansprakelijk­heids­recht.

‘Een arbeids­recht­advocaat heeft al een hele kluif aan zijn eigen rechtsgebied. Die gaat echt niet het AI‑recht ernaast doen.’

Janssen noemt de medische sector als voorbeeld. Stel dat een robot met kunstmatige intelligentie zelfstandig een operatie uitvoert, zonder aanwezigheid van een arts. Hoe zit het dan met de aansprakelijk­heid als er iets misgaat? Is de AI in de operatierobot naar het Nederlands recht een hulpzaak? Is het ziekenhuis contractueel aansprakelijk, of verschuift de aansprakelijk­heid naar de producent? En hoe zit het met de arts die de robot inschakelt, maar verder geen enkele controle heeft?

Bovendien zorgt de komst van de AI Act volgens Abbady voor nieuwe compliance- en beleids­verplichtingen. AI‑aanbieders moeten bijvoorbeeld risicoassessments uitvoeren. Ook van gebruikers van AI‑toepassingen wordt verlangd dat ze eventuele risico’s in kaart brengen. ‘Denk bijvoorbeeld aan banken of hypotheek­verstrekkers die AI gebruiken bij fraudeanalyses of kredietwaardigheidsonderzoeken. Zij dienen na te gaan of daarbij fundamentele rechten in het geding komen.’ Daarnaast komen op de producenten data governance-verplichtingen te rusten. Zo moeten AI‑producenten bijvoorbeeld een op bias geteste dataset gebruiken om de kunstmatige intelligentie te trainen. Ook dat levert werk op voor advocaten, voorspelt Abbady.

De AI Act in een notendop

Na onderhandelingen van 36 uur bereikten het Europese Parlement en de Europese Raad op 9 december 2023 een akkoord over de voorlopige tekst voor de AI Act. Deze AI‑verordening is de eerste in zijn soort en moet nog worden geformaliseerd. Met de nieuwe wetgeving kiest de EU voor een zogeheten risicogebaseerde aanpak. Hoe meer risico’s een AI‑toepassing meebrengt, hoe strenger de regulering.

Toepassingen met een onaanvaardbaar risico worden verboden. Dat geldt bijvoorbeeld voor AI die mensen classificeert op basis van gedrag, persoonlijke kenmerken of sociaal-economische status (het zogeheten social scoring, dat bijvoorbeeld in China wordt toegepast).

Systemen die de maatschappelijke veiligheid of grondrechten in gevaar kunnen brengen, worden als ‘hoog risico’ bestempeld. Dit zijn bijvoorbeeld AI‑toepassingen in producten die moeten voldoen aan EU‑product­veilig­heids­wet­geving (auto’s, medische hulpmiddelen, speelgoed). Daarnaast gaat het om AI‑systemen waarvoor geen productveiligheidswetten gelden, maar die wel risico’s mee kunnen brengen qua veiligheid of grondrechten. Denk aan AI‑systemen voor infrastructuur, onderwijs, migratie en asiel en rechterlijke instanties. Deze toepassingen worden beoordeeld voor ze op de markt worden gebracht en daarna gemonitord.

Het laagste risiconiveau betreft systemen die beeld-, audio- of videomateriaal genereren (zoals chatbots en deepfakes). Deze toepassingen moeten vermelden dat ze AI gebruiken, waarna de gebruiker beslist of hij de toepassing wil blijven gebruiken.

Een belangrijk discussiepunt tijdens de onderhandelingen was de regulering van general purpose AI. Voor producenten van deze AI‑systemen (zoals GPT-4) gelden aanvullende verplichtingen. Zo moeten ze toegang geven tot informatie over hun systemen.

De AI Act gaat ook invloed hebben op partijen die niet direct gereguleerd worden, maar die wel in de ‘waardeketen’ zitten van gereguleerde bedrijven. Janssen haalt opnieuw het voorbeeld aan van de operatierobot met AI. Het bedrijf dat die robot levert, kan gereguleerd worden omdat het in de waardeketen van de AI‑aanbieder valt. Ook bedrijven die het AI‑basismodel van een producent doorontwikkelen voor hun eigen specifieke toepassingen vallen onder de AI Act.

Shima Abbady

Diverse cliënten

Cliënten kunnen volgens Abbady de AI Act niet nog even op het laatste moment implementeren in hun organisatie. ‘Vooral AI‑producenten kunnen te maken krijgen met zware compliance-trajecten, die flink wat tijd kosten. Daar te laat mee beginnen, kan betekenen dat een product niet op de Europese markt mag worden gebracht.’ Ze raadt AI‑producenten en ‑gebruikers aan zo snel mogelijk advies in te winnen over wat de AI Act voor hen gaat betekenen.

Zelf is Abbady daar inmiddels druk mee. Zo helpt ze cliënten de AI‑toepassingen binnen hun organisatie in kaart te brengen, om op basis van dat overzicht te bepalen welke juridische rechten en plichten gelden. Daarvoor moeten risicoanalyses worden gemaakt. Vervolgens helpt ze cliënten met hun beleid: hoe om te gaan met AI binnen de organisatie, het trainen van medewerkers en het aanpassen van contracten.

Naast grote IT-bedrijven die aankloppen voor advies ziet Abbady haar cliëntenkring diverser worden. ‘Steeds meer bedrijven integreren AI‑systemen in hun producten en bedrijfsprocessen. Dat kunnen ook zomaar bedrijven in de financiële sector of lifestylesector zijn, die je normaal gesproken niet zo snel zou linken aan AI.’

AI‑aansprakelijkheid

De EU is ook bezig het aansprakelijk­heids­regime AI‑proof te maken. Zo wordt gewerkt aan een herziene Product­aansprakelijk­heids­richtlijn. In de nieuwe versie worden software en AI expliciet als producten geclassificeerd, waardoor zij onder het bereik van de richtlijn komen te vallen.

Daarnaast ligt er een voorstel voor een AI Liability Directive, dat het eenvoudiger moet maken om schadevergoeding te krijgen voor schade die is veroorzaakt door kunstmatige intelligentie. ‘Dat is iets wat over het algemeen erg moeilijk is, vanwege de bewijslast,’ vertelt Abbady (Bird & Bird). ‘Als je niet weet hoe zo’n systeem werkt en je hebt geen enkel inzicht in hoe bepaalde beslissingen zijn genomen, zie daar dan maar eens een goede vordering voor op te tuigen.’ De EU wil de burger hier tegemoetkomen, bijvoorbeeld door bewijsvermoedens in de richtlijn op te nemen. Verder gaat de verlaagde bewijslast in de Product­aansprakelijk­heids­richtlijn ook gelden voor AI‑systemen.

Hoewel de AI‑aansprakelijk­heids­richtlijn nog in de kinderschoenen staat, kan de AI Act hier volgens Abbady tevens relevant worden. ‘De AI Act formuleert standaarden, die bijvoorbeeld gebruikt kunnen worden om invulling te geven aan de zorgplicht in het kader van aansprakelijkheid op grond van een onrechtmatige daad.’

Specialisatie

Betekent de komst van de AI Act dat iedere advocaat straks kennis van AI moet hebben? Niet reëel, denkt Ekker. ‘Een arbeids­recht­advocaat heeft al een hele kluif aan het bijhouden van alle ontwikkelingen in zijn rechtsgebied. Die gaat echt niet even het AI‑recht ernaast doen.’ Bovendien is het volgens hem niet noodzakelijk dat advocaten diepgaande technische kennis van kunstmatige intelligentie hebben. Affiniteit met het onderwerp is vaak voldoende.

André Janssen

De oplossing ligt volgens Ekker in meer inter­disciplinaire samenwerking. ‘Advocaten gaan zich specialiseren, bijvoorbeeld in AI en aansprakelijk­heid, of grondrechten en AI. Dat maakt het makkelijker voor advocaten om te zeggen: dit is niet mijn discipline, ik haal er even een collega bij.’

Abbady houdt zich bezig met AI‑gerelateerde kwesties die raken aan privacy, intellectuele eigendom, contractenrecht, aansprakelijk­heids­recht en ethiek. Op dit moment heeft ze nog overzicht van wat er speelt rondom AI. ‘Ik zal vast ook blinde vlekken hebben, maar klanten komen met de vraag: we willen AI gebruiken of AI ontwikkelen, wat moeten we doen? Heel open vragen, dus ik moet wel een idee hebben van er gaande is.’

Ook zij verwacht op termijn een meer gespecialiseerde praktijk te runnen. ‘Er gebeurt zoveel, het is bijna niet te doen om dat allemaal bij te houden.’ Abbady wil zich in de toekomst toeleggen op de regulering van AI. Ze hoopt dat andere advocaten zich ook gaan specialiseren. ‘Dan kan ik wat meer samenwerken met collega’s die zich toeleggen op een ander stukje. Dat doe ik nu bijvoorbeeld al met intellectueel eigendomsrecht, waarin ik zelf niet gespecialiseerd ben.’

‘Wat betekent AI voor onze rechtsstaat en wat vinden we daarvan als advocaat?’

Verantwoordelijkheden

Naast commerciële kansen brengt het AI‑recht volgens Abbady verant­woordelijk­heden voor advocaten met zich mee. ‘Kunstmatige intelligentie kan flinke spanningen met de rechtsstaat opleveren en die staat al zo onder druk. We outsourcen verregaande verant­woordelijk­heden naar computer­systemen. Wie krijgt een hypotheek, wie niet? Wie worden toegelaten tot een onderwijs­instelling, wie niet? Mogen camera’s met gezichts­herkenning in openbare ruimtes worden geplaatst?’

Het is (mede) aan advocaten om de rechtsstaat te beschermen, aldus Abbady. ‘Wat betekent AI voor onze rechtsstaat en wat vinden we daarvan als advocaat? Het is de hoogste tijd voor advocaten om zich daarover een mening te vormen.’

VAI‑A

De Vereniging AI Advocaten (VAI‑A) werd in november 2021 officieel opgericht en is sinds mei 2022 actief. Het bestuur bestaat uit Anton Ekker (Ekker Advocatuur), Shima Abbady (Bird & Bird) en Joost Gerritsen (Legal Beetle). Inmiddels heeft de vereniging meer dan zestig leden, die zich voornamelijk bezighouden met intellectueel eigendom, IT en privacy. ‘We maken nog niet veel reclame, maar de vereniging groeit al gestaag,’ vertelt Ekker. Nu de AI Act eraan komt, verwacht hij dat de VAI‑A verder groeit. Alle advocaten met een interesse in kunstmatige intelligentie kunnen aansluiten, een AI‑gerelateerde praktijk is geen vereiste.