De NOS meldt dat verhuurplatform Airbnb sinds 2020 slimme software gebruikt waarmee zij huurders kunnen weren indien zij vermoeden dat een gehuurde accommodatie als feestlocatie zal fungeren. Door middel van artificiële intelligentie (AI) worden risicovolle reserveringen gedetecteerd en geblokkeerd. Selectie middels AI kan echter risico´s opleveren voor gebruikers. De Europese Commissie heeft in dat kader een voorstel gedaan voor een risico-gebaseerde AI-verordening.
Anti-party technology
Het aantal huisfeesten is tijdens de coronacrisis enorm toegenomen. Dat is ook verhuurplatform Airbnb niet ontgaan. Zij heeft tijdens deze crisis een feestverbod ingevoerd voor locaties die via haar platform gehuurd worden. Dit verbod werd eind juni 2022 definitief. Om dit beleid te kunnen doorvoeren, heeft zij recent zogenaamde ‘anti-party tools’ geïntroduceerd in de Verenigde Staten en Canada om risicovolle reserveringen te kunnen identificeren en te voorkomen dat misbruik wordt gemaakt van het platform, aldus Airbnb.
Deze slimme software kan een account beoordelen op basis van de (positieve) recensiegeschiedenis van de gast, hoelang het account van de gast reeds bestaat, de duur van de reis, de afstand tot de te huren accommodatie, of de boeking doordeweekse of weekenddagen betreft en vele andere factoren, waarover het platform zich verder niet uitlaat.
Indien gasten worden gekwalificeerd als een risico, kunnen zij geen volledige woning meer boeken. Wel blijven zij in staat zijn om een privé kamer of een hotelkamer te boeken omdat de kans op overlast hierbij volgens Airbnb kleiner is. Dit mede vanwege de (potentiële) aanwezigheid van de verhuurder. Hoewel een soortgelijke pilot in Australië positief werd beoordeeld, geeft Airbnb aan dat het systeem ´niet perfect is´. Dit roept vragen op in het kader van de bescherming van gebruikers bij geautomatiseerde besluitvorming.
Concept AI-verordening
Dergelijke ontwikkelingen zijn de Europese Commissie ook niet onopgemerkt gebleven. Zij heeft in april 2021 een voorstel gedaan voor een nieuwe AI-verordening. De verordening kent een risico gebaseerde aanpak. Dit houdt in dat er meer en strengere veiligheidseisen gelden naarmate het AI-systeem meer risico´s oplevert voor gebruikers.
De concept verordening onderscheidt vier risicokwalificaties:
- Onaanvaardbaar risico: hierbij gaat het om AI-systemen die Europese fundamentele rechten schenden zoals een zogenaamd ‘social scoring systeem’ dat wordt toegepast door overheden. Dit systeem houdt in dat alle burgers een bepaalde score krijgen op basis van hun gedrag. Ingeval van een ‘slechte’ score, kan hen bepaalde rechten worden ontnomen zoals het lenen van geld of zelfs de mogelijkheid om het land te verlaten.
- Hoog risico: dit betreft AI-systemen die een bedreiging vormen voor de gezondheid, veiligheid of grondrechten van personen zoals AI-selectiesystemen voor een lening of toegang tot het sociale zekerheidsstelsel. In bijlage III van de concept verordening is een (voorlopige) lijst opgenomen van AI-systemen die gekwalificeerd zijn als een hoog risico-systeem. Deze systemen dienen kortgezegd aan zeven strikte voorwaarden te voldoen voordat zij in de handel mogen worden gebracht. Denk aan de implementatie van een risicobeheerssysteem (art. 9), een databeheersysteem (art. 10), een technische documentatieverplichting (art. 11) en automatische logregistratie (art. 12). Daarnaast geldt een transparantie- en informatieplicht aan gebruikers (art. 13), is er menselijk toezicht vereist (art. 14) en moeten er voldoende maatregelen worden genomen om te zorgen voor een nauwkeurig en degelijk systeem, inclusief cyberbeveiliging (art. 15).
- Beperkt risico: denk aan AI-systemen, zoals een chatbot, die weinig risico opleveren voor gebruikers. Voor dergelijke systemen geldt slechts een transparantieverplichting.
- Minimaal risico: voor deze AI-systemen geldt dat bestaande wet- en regelgeving afdoende is. Denk hierbij aan spamfilters en zoekmachines.
Op dit moment wordt nog onderhandeld over het voorstel. Toch kan het geen kwaad om alvast in te spelen op deze toekomstige regelgeving, aangezien niet altijd met zekerheid te zeggen is hoeveel risico een AI-systeem zal veroorzaken (zoals het geval bij Airbnb). Bovendien kunnen overtredingen volgens het voorstel worden gesanctioneerd met een geldboete van maximaal 6% van de jaaromzet van het voorafgaande kalenderjaar.
Vragen?
Voor vragen of meer informatie hieromtrent kunt u contact opnemen met het team IE, IT & Privacy.
Neem contact op