Groen licht voor Europese AI-Act, wat betekent dat nu juist?”

Vandaag hebben de Europese Commissie, het Europese Parlement en de Raad een akkoord gevonden over de grote principes van het wetsvoorstel voor een regelgeving voor Artificiële Intelligentie (AI), de zogeheten 'AI Act'. Op dit moment wordt verwacht dat de AI Act begin 2026 in werking zal treden.

De AI Act is de eerste regelgeving op Europees niveau die specifiek gericht is op artificiële intelligentie. De Commissie is van mening dat niet alle AI-systemen uitgebreid gereguleerd hoeven te worden. Daarom hanteert ze een 'risicogebonden aanpak' voor het wettelijk kader. Dit betekent dat het (potentiële) risico van een AI-toepassing bepaalt welke regels van toepassing zullen zijn. Zo vermeldt het voorstel 4 categorieën, elk met een bijbehorende set regels. Het gaat om de categorieën “low and minimal risk”, “limited risk”, “high risk” en “unacceptable risk”. In de laagste categorie vind je AI-systemen die in fabrieken gebruikt worden voor kwaliteitscontroles. In de allerhoogste het gebruik van AI-systemen om bijvoorbeeld een ‘sociale score’ te geven aan mensen die dan gebruikt kan worden om toegang te geven tot bepaalde maatschappelijke diensten.

De AI-Act, een trein die rijdend gebouwd wordt

De discussie rond AI is overal. Van doemdenkers tot believers van het eerste uur: iedereen heeft er een mening over. Dat wordt ook duidelijk in de AI Act. Deze wetgeving, waarvan het eerste voorstel dateert van april 2021, werd opgestart nog vóór ChatGPT in november 2022 werd gelanceerd. De basis van de AI Act werd dus gelegd zonder dat de generatieve AI al zo’n hot topic was. Het valt te betwijfelen of het oorspronkelijke voorstel van de commissie niet ingehaald is door de realiteit. Aan het eind van het proces is er geprobeerd om deze grootschalige generatieve AI-modellen alsnog op een bepaalde manier te reguleren. Hoe dit uiteindelijk zal uitpakken, zal duidelijk worden in de uiteindelijke teksten, die in februari volgend jaarklaar zouden moeten zijn.

Van een emotionele naar een rationele discussie

Artificiële intelligentie komt met risico’s, maar er bestaat ook veel onbegrip over de technologie en de mogelijkheden ervan. Nieuwe toepassingen brengen enorm veel mogelijkheden met zich mee. Denk dan bijvoorbeeld aan chatbots of digitale assistenten en veel accuratere weer- en klimaatmodellen. Maar AI brengt ook heel wat vragen rond misleidende inhoud, privacyrisico's, enz. In België hebben volgens net gepubliceerde StatBelcijfers bijna een op de zeven bedrijven (13,8%) artificiële intelligentie gebruikt in 2023. Bij bedrijven met meer dan 250 werknemers stijgt dat naar bijna de helft (47,9%).

Wij pleiten daarom voor een grootschalige bewustmakingscampagne voor onze hele maatschappij die twee boodschappen moet overbrengen:

  1. De positieve mogelijkheden van AI voor mensen, maatschappij en bedrijven op basis van concrete toepassingen;
  2. De risico’s bij het gebruik van AI.

Waar staan we nu?

Er is een politiek akkoord bereikt tussen de drie Europese instanties - de Europese Commissie, de Raad en het Europees Parlement - over de AI Act, wat een belangrijke stap is in de regelgeving rond artificiële intelligentie. Hoewel de hoofdlijnen van de wet nu vastliggen, moet de uitwerking van de specifieke details nog plaatsvinden. Deze cruciale fase van detailuitwerking zal onder de leiding van het Belgisch voorzitterschap vallen, waarbij ons land de technische en juridische aspecten zal sturen. Voor AI-aanbieders en gebruikers is het relevant om te weten dat er een overgangsperiode van twee jaar is voorzien, wat hen tijd geeft om hun systemen in lijn te krijgen met de nieuwe eisen van de AI Act.

“Om voldoende rechtszekerheid te hebben, is het dus belangrijk dat alle details zo snel mogelijk uitgewerkt worden. Het Belgisch voorzitterschap draagt de grote verantwoordelijkheid.”, zegt Jelle Hoedemaekers, Expert ICT Standardisation bij Agoria. “Een nationale AI-autoriteit moet daarna de toepassing verzorgen en duidelijkheid scheppen. We mogen absoluut niet in de onzekerheid verglijden die we na de uitrol van GDPR hebben gezien.”, besluit hij. “Tegelijkertijd moet een snelle implementatie van de ‘regulatory sandboxes” voor AI ook toelaten om rekening te houden met innovatie in de toepassing van de nieuwe Act. Een sandbox is een gecontroleerde omgeving die het ontwikkelen, testen en valideren van innovatieve AI-systemen voor een beperkte tijd mogelijk maakt.

 

Persberichten in je mailbox

Door op "Inschrijven" te klikken, bevestig ik dat ik het Privacybeleid gelezen heb en ermee akkoord ga.

Over agoria-newsroom

Neem contact op met

Auguste Reyerslaan 80 1030 Brussel

www.agoria.be