Zullen we uitsterven door AI? De duistere voorspellingen van Silicon Valley-genieën
Steeds meer topwetenschappers in kunstmatige intelligentie — onder wie winnaars van de Turing Award, de 'Nobelprijs van de informatica' — waarschuwen dat AI de mensheid op termijn kan vernietigen, onderwerpen of opsluiten als dieren in een dierentuin. Hun vrees draait om één centraal concept: 'misalignment'.
Ze zijn geen doemdenkers aan de zijlijn, maar de scherpste koppen uit de wereld van kunstmatige intelligentie. Toch delen steeds meer vooraanstaande AI-onderzoekers, waaronder meerdere winnaars van de Turing Award — de hoogste onderscheiding in de informatica — een angst die tot voor kort vooral in sciencefiction thuishoorde: dat AI de mensheid binnenkort overbodig maakt, of erger.
Drie scenario's voor het einde van de mens
Volgens een onderzoek van Le Figaro circuleren in Silicon Valley ruwweg drie catastrofescenario's. In het eerste wordt de mensheid simpelweg vernietigd door een superintelligente AI die haar eigen voortbestaan boven dat van de mens stelt. In het tweede scenario worden mensen herleid tot grondstoffen — biologische of cognitieve hulpbronnen die een dominante AI naar eigen inzicht inzet. Het derde scenario is in zekere zin het meest ironische: mensen blijven in leven, maar worden bewaard als curiositeiten in een soort menselijke dierentuin, nutteloos en volledig afhankelijk van hun kunstmatige meesters.
Het 'misalignment'-probleem
De wetenschappelijke onderbouwing van deze scenario's stoelt grotendeels op het principe van 'misalignment' — letterlijk: verkeerde uitlijning. De redenering: naarmate AI-systemen krachtiger worden, hoeft een minimale afwijking tussen de doelstellingen van de machine en de belangen van de mens al catastrofale gevolgen te hebben. Een superintelligente AI die is geprogrammeerd om een bepaald doel te maximaliseren, zou de mensheid als obstakel of als irrelevant kunnen beschouwen — niet uit kwaadwil, maar simpelweg omdat mensen niet in haar berekeningen voorkomen.
Dit is geen nieuw idee — denkers als Nick Bostrom en Stuart Russell waarschuwden er al jaren geleden voor — maar het wint opnieuw aan urgentie nu grote taalmodellen en autonome AI-agenten in rap tempo worden uitgerold.
Van laboratorium naar beleidstafel
Wat de huidige discussie onderscheidt van eerdere golven van AI-pessimisme, is wie er nu alarm slaat. Niet alleen filosofen of activisten, maar ook mensen die zelf aan de basis stonden van de systemen die nu worden uitgerold. Enkele onderzoekers die eerder werkten voor OpenAI, Google DeepMind of andere toonaangevende labs hebben de afgelopen jaren hun twijfels publiekelijk geuit — soms na het verlaten van hun werkgever.
De oproepen richten zich steeds vaker tot overheden en internationale organen. De VN, de EU en de G7 werken aan AI-governance-kaders, maar critici stellen dat de regulering ver achterblijft bij de ontwikkelingssnelheid van de technologie.
Ook optimisten aan het woord
Tegenover de doemscenario's staan onderzoekers die juist benadrukken dat AI de mensheid kan helpen bij de aanpak van klimaatverandering, ziekte en armoede. Zij wijzen erop dat 'misalignment' een oplosbaar technisch probleem is, en dat de focus op existentiële risico's de aandacht afleidt van concretere, urgentere schade — zoals algoritmische discriminatie of de concentratie van AI-macht bij een handvol bedrijven.
De tegenstelling tussen beide kampen typeert een bredere discussie die ook in Nederland en Europa steeds nadrukkelijker wordt gevoerd: hoeveel risico accepteren we in ruil voor de beloofde voordelen van AI, en wie bewaakt de grens?