Forbruket blir stadig mer koblet og digitalisert
Beregning av strømforbruk for å tilby tilstrekkelige tilbud, en tilkoblet klokke som oppdager visse patologier på grunn av en unormal gangart eller en for høy puls, Chatbot som kundeservice, et fjernprogram for å skru på oppvarmingen hjemme… Kunstig intelligens har lite invaderte lite våre forbruksvaner
Og dette er bare begynnelsen! Mange selskaper jobber allerede med teknologier og forretningspraksis som bruker annen kunstig intelligens. Derfor utvikles droneleveranser, autonome drosjer, virtual reality-markedsføring, voicebots.
Hva er risikoen for forbrukerne?
Alle disse nye forbruksmåtene er ikke uten risiko for brukerne. Siden AI involverer mange aktører (utvikler, leverandør, importør, distributør, AI-bruker), forblir systemet ugjennomsiktig for forbrukeren. Derfor er det vanskelig å vite hvem som faktisk har tilgang til personopplysninger og hvem som vil være ansvarlig i tilfelle problemer.
På den annen side, siden AI-systemet er programmert og automatisert, må risikoen for teknisk feil tas i betraktning. Og konsekvensene ville være skadelige. Eksempler: ukontrollerbar autonom bil, omfattende strømbrudd, falsk informasjon eller feildiagnostisering…
Til slutt er risikoen for lekkasje eller tap av kontroll over de registrerte personopplysningene stor: cyberangrep, hacking, phishing eller andre målrettede digitale markedsføringsteknikker, falske nyheter, svindel, etc.
Europeisk beskyttelse mot bruk av kunstig intelligens
Overfor økningen, men også risikoen ved AI, ønsker Europa å styrke beskyttelsesstandardene sine. I tillegg til GDPR og European Data Governance Law har EU foreslått tre tekster: et regelverk for kunstig intelligens, et direktiv om ansvar i form av AI, et direktiv om produktansvar.
Europa ønsker spesielt å utestenge fra markedet og straffe «AI med uakseptable risikoer». For eksempel de som vil lokalisere mennesker på avstand, i sanntid og i offentlige rom, for å arrestere eller sanksjonere dem. Du ønsker å vurdere og kontrollere «høyrisiko AI» knyttet til sikkerheten til et produkt (som f.eks. selvkjørende biler). Og EU ønsker å regulere «akseptabel risiko AI» ved å tvinge for eksempel digitale giganter og andre plattformer og sosiale nettverk til å informere brukerne bedre om deres algoritmer.
I likhet med GDPR er sanksjonene gitt i disse tekstene på AI betydelige: fra €10 til €30 millioner eller fra 2 til 4 % av omsetningen i tilfelle manglende overholdelse av forpliktelser.
«Le défi de l’Europe est maintenanceant d’aller vite dans l’adoption de ces textes, plus vite que l’innovation et l’investissement qui est mi dans l’intelligence artificielle» indikerer Bianca Schulz, leder av Centre Européen des Consommateurs Frankrike.
«Forbrukere er ikke alltid klar over at det å stille personlige spørsmål, for eksempel medisinske spørsmål, til et chat-verktøy gir selskapene bak denne AI-sensitive informasjonen som kan utnyttes til kommersiell gevinst. Det er derfor, for å beskytte sine data, bør forbrukere alltid informere seg om selskapet som samler inn dataene deres og deres retningslinjer for behandling av denne personopplysningen”, avslutter Bianca Schulz.
Presse- og mediekontakt:
Elphege TIGNEL
tignel@cec-zev.eu
0049 7851 991 48 25 / 06 82 68 42 35
________________________________________
European Consumer Centre (ECC) Frankrike er en europeisk tjeneste hvis oppgave er å informere forbrukere om deres rettigheter i Europa og hjelpe dem med å løse en tvist med en europeisk fagperson. ECC Frankrike tilhører det europeiske nettverket ECC-Net, det er en ECC i hvert EU-land, Island og Norge. CEC France ligger på grensen til Strasbourg/Kehl, gruppert med CEC Tyskland innenfor den fransk-tyske foreningen «European Consumer Center». Tjenestene deres er gratis. Mer informasjon på www.europe-consommateurs.eu
«Hipstervennlig student. Coffeeaholic. Popkulturinteressert. Uunnskyldende tv-elsker.»