AI heeft zoveel voordelen, maar hoe zit het met de onmiddellijke risico’s die het voor de mensheid met zich meebrengt?
Kunstmatige intelligentie verstoort en revolutioneert bijna elke bedrijfstak. Met de voortschrijdende technologie heeft het de potentie om veel aspecten van het leven drastisch te verbeteren.
Maar het is niet zonder risico.
En, nu vele deskundigen waarschuwen voor het potentiële gevaar van AI, moeten we waarschijnlijk opletten. Aan de andere kant beweren velen dat dit alarmerende standpunten zijn en dat er geen onmiddellijk gevaar van AI is.
Dus, zijn de zorgen over kunstmatige intelligentie alarmistisch of niet? Dit artikel zal de vijf belangrijkste risico’s van kunstmatige intelligentie behandelen, met uitleg over de momenteel beschikbare technologie op deze gebieden.
Hoe kan AI gevaarlijk zijn?
AI wordt met de dag geavanceerder, en dit kan risico’s hebben die variëren van mild (bijvoorbeeld baanverstoring) tot catastrofale existentiële risico’s. Over de hoogte van het risico dat AI oplevert wordt zo zwaar gedebatteerd omdat er een algemeen gebrek aan begrip (en consensus) is over AI-technologie.
Algemeen wordt gedacht dat AI op twee manieren gevaarlijk kan zijn:
- De AI is geprogrammeerd om iets kwaadaardigs te doen
- De AI is geprogrammeerd om gunstig te zijn, maar doet iets destructiefs terwijl hij zijn doel bereikt.
Deze risico’s worden versterkt door de geavanceerdheid van AI-software. Het klassieke hypothetische argument is de grappige “paperclip maximizer.” In dit gedachte-experiment is een superintelligente AI geprogrammeerd om het aantal paperclips in de wereld te maximaliseren. Als hij intelligent genoeg is, zou hij voor dit doel de hele wereld kunnen vernietigen.
Maar we hoeven niet aan superintelligente AI te denken om te zien dat er al gevaren verbonden zijn aan ons gebruik van AI. Dus, wat zijn enkele van de directe risico’s die we van AI ondervinden?
1. Automatisering en ontwrichting van banen
Automatisering is een gevaar van AI dat de samenleving nu al treft.
Van massaproductiefabrieken tot zelfbedieningskassa’s tot zelfrijdende auto’s, automatisering vindt al tientallen jaren plaats – en het proces versnelt. Uit een studie van het Brookings Institution in 2019 bleek dat 36 miljoen banen de komende jaren een groot risico op automatisering zouden kunnen lopen.
De kwestie is dat AI-systemen voor veel taken beter presteren dan mensen. Ze zijn goedkoper, efficiënter en nauwkeuriger dan mensen. AI is bijvoorbeeld al beter in het herkennen van kunstvervalsing dan menselijke experts, en het wordt nu nauwkeuriger in het diagnosticeren van tumoren uit radiografische beelden.
Een ander probleem is dat, met de verplaatsing van banen als gevolg van automatisering, veel van de werknemers die hun baan verloren hebben niet in aanmerking komen voor nieuw gecreëerde banen in de AI-sector, omdat ze de vereiste kwalificaties of deskundigheid missen.
Naarmate AI-systemen steeds beter worden, zullen ze veel bedrevener worden in taken dan mensen. Dat kan zijn in patroonherkenning, het verschaffen van inzichten, of het doen van nauwkeurige voorspellingen. De resulterende verstoring van de werkgelegenheid zou kunnen leiden tot meer sociale ongelijkheid en zelfs een economische ramp.
2. Veiligheid en privacy
In 2020 gaf de Britse regering opdracht tot een rapport over kunstmatige intelligentie en de Britse nationale veiligheid, waarin werd gewezen op de noodzaak van AI in de cyberbeveiligingsverdediging van het Verenigd Koninkrijk om bedreigingen op te sporen en te beperken die een grotere reactiesnelheid vereisen dan waartoe menselijke besluitvorming in staat is.
Het probleem is dat de hoop is dat naarmate de AI-gedreven veiligheidsproblemen toenemen, ook de AI-gedreven preventiemaatregelen toenemen. Tenzij we maatregelen kunnen ontwikkelen om ons te beschermen tegen AI-zorgen, lopen we het risico een eindeloze race tegen slechte actoren te lopen.
Dit roept ook de vraag op hoe we AI-systemen zelf veilig maken. Als we AI-algoritmen gebruiken om ons te verdedigen tegen verschillende beveiligingsproblemen, moeten we ervoor zorgen dat de AI zelf veilig is tegen slechte actoren.
Als het gaat om privacy worden grote bedrijven en overheden al aangesproken op de uitholling van onze privacy. Nu er zoveel persoonlijke gegevens online beschikbaar zijn (dagelijks worden er 2,5 miljoen terabytes aan gegevens aangemaakt), zijn AI-algoritmen al in staat om gemakkelijk gebruikersprofielen op te stellen die uiterst nauwkeurige targeting van advertenties mogelijk maken.
Gezichtsherkenningstechnologie is ook al ongelooflijk geavanceerd. Camera’s kunnen real-time profilering van personen uitvoeren. Sommige politiekorpsen wereldwijd gebruiken naar verluidt slimme brillen met gezichtsherkenningssoftware waarmee gezochte of verdachte criminelen gemakkelijk gelabeld kunnen worden.
Het risico is dat deze technologie kan worden uitgebreid naar autoritaire regimes of gewoon individuen of groepen met kwade bedoelingen.
3. AI Malware
AI wordt steeds beter in het hacken van beveiligingssystemen en het kraken van encryptie. Eén manier waarop dit gebeurt is via malware die “evolueert” door middel van machine learning algoritmes. De malware kan met vallen en opstaan leren wat werkt, en wordt na verloop van tijd gevaarlijker.
Nieuwere slimme technologie (zoals zelfrijdende auto’s) is beoordeeld als een hoog risico doelwit voor dit soort aanvallen, met de mogelijkheid voor slechte actoren om auto-ongelukken of gridlocks te veroorzaken. Naarmate we meer en meer afhankelijk worden van met internet verbonden slimme technologie, zal steeds meer van ons dagelijks leven beïnvloed worden door het risico van verstoring.
Nogmaals, de enige echte oplossing voor dit gevaar is dat anti-malware AI het beter doet dan kwaadaardige AI om individuen en bedrijven te beschermen.
4. Autonome wapens
Autonome wapens – wapens bestuurd door AI-systemen in plaats van menselijke input – bestaan al en doen dat al geruime tijd. Honderden technologiedeskundigen hebben er bij de VN op aangedrongen een manier te ontwikkelen om de mensheid te beschermen tegen de risico’s van autonome wapens.
Overheidsmilitairen wereldwijd hebben al toegang tot diverse AI-gestuurde of semi-AI-gestuurde wapensystemen, zoals militaire drones. Met gezichtsherkenningssoftware kan een drone een individu opsporen.
Wat gebeurt er als we AI-algoritmen beslissingen over leven en dood gaan laten nemen zonder enige menselijke inbreng?
Het is ook mogelijk om consumententechnologie (zoals drones) aan te passen om autonoom te vliegen en verschillende taken uit te voeren. Dit soort vermogen in de verkeerde handen kan de veiligheid van een individu van dag tot dag beïnvloeden.
5. Deepfakes, nepnieuws en politieke veiligheid
Gezichtsreconstructiesoftware (beter bekend als deepfake tech) is steeds minder van de werkelijkheid te onderscheiden.
Het gevaar van deepfakes treft nu al beroemdheden en wereldleiders, en het duurt maar zo lang tot dit doorsijpelt naar gewone mensen. Oplichters chanteren bijvoorbeeld al mensen met deepfake video’s die zijn gemaakt van zoiets simpels en toegankelijks als een Facebook-profielfoto.
En dat is niet het enige risico. AI kan foto’s namaken en bewerken, tekst samenstellen, stemmen klonen en automatisch zeer gerichte reclame produceren. We hebben al gezien hoe sommige van deze gevaren de samenleving beïnvloeden.
De risico’s van kunstmatige intelligentie beperken
Naarmate kunstmatige intelligentie geavanceerder en capabeler wordt, wordt er veel positieve vooruitgang geboekt. Maar helaas loopt krachtige nieuwe technologie altijd het risico misbruikt te worden. Deze risico’s beïnvloeden bijna elk facet van ons dagelijks leven, van privacy tot politieke veiligheid tot werkautomatisering.
De eerste stap in het beperken van de risico’s van kunstmatige intelligentie zal zijn om te beslissen waar we willen dat AI wordt gebruikt en waar het moet worden ontmoedigd. Meer onderzoek naar en debat over AI-systemen en hun toepassingen is de eerste stap om te voorkomen dat ze misbruikt worden.