AI is allang geen puur technologisch onderwerp meer; het is een ‘mainstream’ cultureel fenomeen. Kunstmatige intelligentie domineert het gesprek, of het nu gaat om baanbrekende ontwikkelingen of zorgen over privacy en ethiek. In een tijd waarin AI ons leven op steeds meer manieren beïnvloedt, is het opmerkelijk dat er nog geen duidelijke wettelijke kaders zijn om deze technologie te reguleren. Dit juridische vacuüm rond AI maakt een recent aangenomen verordening van de Europese Unie des te belangrijker. Het doel is duidelijk: de verordening moet zowel de kansen van AI benutten als de rechten van het individu beschermen.
Het gebrek aan specifieke wetgeving die zich richt tot kunstmatige intelligentie creëert een onduidelijk en inconsistent klimaat voor zowel consument als producent. Om deze reden hebben het Europees Parlement en de Raad eind 2023 een nieuwe verordening aangenomen die de regelgeving binnen een uniform wettelijk kader moet gaan vastleggen. De implementatie van deze verordening zal echter geleidelijk plaatsvinden over de komende jaren, waardoor bedrijven de mogelijkheid krijgen om zich aan te passen aan de nieuwe regelgeving en de nodige maatregelen te treffen.
Classificatie van risico’s: van onaanvaardbaarheid tot minimaal
Een van de belangrijkste kernpunten van de verordening is de identificatie en classificatie van verschillende risiconiveaus die gepaard gaan met AI-systemen. De verschillende risiconiveaus worden beoordeeld en gereguleerd op basis van de ernst en intensiteit van het potentiële risico dat de AI vormt. Allereerst is er een lijst met onaanvaardbare risico’s. Die onaanvaardbaarheid vloeit voort uit het gevaar dat zij voor mens en samenleving zijn. Hierbij valt te denken aan systemen die de privacy van het individu dusdanig beperken, dat de voordelen niet opwegen tegen de nadelen. Een voorbeeld hiervan is een systeem van sociale scoring, vergelijkbaar met het sociale kredietsysteem dat in China wordt gehanteerd.
Daarnaast zijn er AI-systemen met een hoog risico, die potentieel schadelijk kunnen zijn voor de samenleving, maar toch niet onaanvaardbaar worden geacht. Deze AI-systemen dienen niet alleen aan een strenge beoordeling te worden onderworpen, maar moeten ook voldoen aan specifieke eisen die de rechten van het individu waarborgen voordat ze toegang krijgen tot de Europese markt. Systemen rondom identificatie en emotieherkenning zijn onderhevig aan dit risiconiveau en bedrijven zullen moeten voorzien in de waarborgen die de verordening verplicht.
Tot slot omvat de verordening alle AI-systemen met een minimaal risico. Deze zijn niet onderhevig aan verplichtingen, of er geldt een transparantievereiste. Dit laatste geldt bij systemen die gebruikers AI-gegenereerde informatie, beelden of audio verstrekken.
In dit geval moet de gebruiker op de hoogte worden gebracht dat content die zij ontvangen door AI gegenereerd is, en de producent moet het gegenereerde product markeren en identificeerbaar maken als zodanig.
Niet-naleving en juridische gevolgen
Naast de verplichtingen die de verordening legt op AI-systemen, heeft het ook consequenties voor de niet-naleving. Het niet voldoen aan de vereisten en verplichtingen kan leiden tot juridische sancties en boetes. Deze maatregelen variëren afhankelijk van de ernst van de schending en kunnen aanzienlijke financiële gevolgen hebben. Bovendien kan niet-naleving leiden tot reputatieschade of aansprakelijkheid voor schadeclaims. Het is daarom essentieel voor bedrijven om zich grondig voor te bereiden op de implementatie van de verordening en ervoor te zorgen dat hun AI-systemen voldoen aan de wet. Dit zal niet alleen juridische problemen voorkomen, maar ook het vertrouwen van consumenten behouden.
Bij MareVisie zijn we toegewijd aan het bevorderen van ethische en duurzame AI-ontwikkeling en erkennen we het belang van een wettelijk kader. Dankzij onze expertise en toewijding kunnen we innovatieve en effectieve digitale oplossingen leveren die niet alleen ethisch verantwoord zijn, maar ook voldoen aan alle vereiste, inclusief de nieuwe Europese verordening.