Concept van AI-overname met digitaal gezicht op achtergrond met lichtjes

Een verbod op superintelligentie? Broodnodig en … onmogelijk

De oproep van filosoof Lode Lauwaert om artificiële superintelligentie (ASI) te verbieden voordat ze werkelijkheid wordt, is begrijpelijk. De potentiële risico’s die hij schetst — van manipulatie en zelfreplicatie tot onbedoelde gevolgen van verkeerd afgestemde systemen — verdienen absoluut onze aandacht. Maar hoe sympathiek de oproep ook is, een internationaal verbod op ASI-onderzoek is praktisch onhaalbaar. Ik zie vier redenen.

De geopolitieke realiteit

Ten eerste onderschat een verbod de geopolitieke dynamiek rond AI-ontwikkeling. Wie ASI als eerste ontwikkelt, verwerft mogelijk een ongekende strategische voorsprong zowel economisch, militair als wetenschappelijk. Landen die zich aan een verbod houden, lopen gegarandeerd achter op landen die doorgaan met ontwikkelen. China, de VS en andere grootmachten zien AI als cruciaal voor hun toekomstige machtspositie. De verleiding om de concurrentie voor te blijven is simpelweg te groot. Een verbod creëert dus een prisoner’s dilemma: het land dat zich niet aan de afspraak houdt, wint alles.

Een verbod creëert een prisoner’s dilemma: het land dat zich niet aan de afspraak houdt, wint alles.

Lauwaert verwijst naar eerdere internationale verdragen als bewijs dat verboden mogelijk zijn. Maar de context is fundamenteel anders. Chemische wapens en antipersoonsmijnen hebben geen economische of wetenschappelijke meerwaarde – ze zijn uitsluitend destructief en heel specifiek. ASI daarentegen belooft doorbraken in geneeskunde, klimaatwetenschap en tal van andere domeinen. Dat maakt de prikkel om door te ontwikkelen sterker.

Het probleem van valsspelen

Ook als we een internationaal akkoord zouden bereiken, is de verleiding om vals te spelen enorm. Denk aan het nucleaire ontwapeningsprogramma: decennialang werd het ondergraven door geheime programma’s en wederzijds wantrouwen. Bij ASI zijn de belangen mogelijk nog hoger. Een land dat stiekem doorontwikkelt terwijl anderen stoppen, verwerft een beslissende voorsprong. En in tegenstelling tot kernproeven, die seismisch detecteerbaar zijn, kan ASI-onderzoek grotendeels digitaal en verborgen plaatsvinden.

Het voorgestelde inspectieorgaan naar analogie met het Internationaal Atoomenergieagentschap klinkt goed, maar is bij ASI veel moeilijker te realiseren. Nucleaire faciliteiten zijn groot, zichtbaar en vereisen specifieke materialen. AI-onderzoek gebeurt op servers, in datacenters en met software, infrastructuur die ook voor legitieme doeleinden wordt gebruikt.

De handhaving

Dit brengt ons bij het derde probleem: handhaving. Lauwaert stelt technische limieten voor via software- en hardwarebeperkingen. Maar wie ontwikkelt en controleert die beperkingen? En belangrijker: wie garandeert dat ze niet worden omzeild? De geschiedenis van digitale beveiliging toont dat elk systeem vroeg of laat wordt gekraakt. Speciale chips die zelfreplicatie weigeren, kunnen worden omzeild door aangepaste hardware. Softwarebeperkingen kunnen worden geherprogrammeerd.

Bovendien: waar ligt de grens? Wanneer wordt een zeer geavanceerd AI-systeem verboden superintelligentie? Die grens is vaag en verschuift naarmate de technologie evolueert. Dat maakt het bijna onmogelijk om helder te definiëren wat precies verboden is, laat staan om naleving af te dwingen.

Schurkenactoren

Ten slotte blijft er het probleem van ‘schurken’. Zelfs als alle grote mogendheden zich aan een verbod houden — een onwaarschijnlijk scenario — dan nog blijven er schurkenstaten, terreurorganisaties of extreem rijke individuen die ASI kunnen nastreven. De technologie om ASI te ontwikkelen wordt steeds toegankelijker. Wat nu miljarden kost en enorme datacenters vereist, kan over tien jaar haalbaar zijn voor welvarende particulieren of kleine staten. Een verbod op staatsniveau biedt geen bescherming tegen deze actoren.

We moeten ervoor zorgen dat AI-systemen onze waarden respecteren, in plaats van te hopen dat we de ontwikkeling kunnen stopzetten.

Wat dan?

Dit betekent niet dat we machteloos moeten toekijken. Maar in plaats van een onhaalbaar algeheel verbod, moeten we inzetten op internationale samenwerking rond AI-veiligheid, transparantie in onderzoek en robuuste nationale regelgeving. We moeten investeren in alignment research, ervoor zorgen dat AI-systemen onze waarden respecteren, in plaats van te hopen dat we de ontwikkeling kunnen stopzetten. En we moeten ons ook vooral richten op wat er vandaag al bestaat en gebeurt, en dat proberen in de juiste banen te leiden.

De risico’s die Lauwaert schetst zijn reëel. Maar een verbod is geen oplossing, het is een illusie die ons mogelijk in slaap sust terwijl de ontwikkeling elders hoe dan ook doorgaat.