Machines die slimmer zijn dan mensen. Het kan realiteit worden in de toekomst en daar zitten veel haken en ogen aan. Verschillende topexperts brengen de implicaties in kaart in de documentaire We Need To Talk About A.I.
In deze fase zijn we omringt door Narrow AI, kunstmatige intelligentie die een specifieke taak veel beter dan mensen kan uitvoeren. Bijvoorbeeld schaken, autorijden, beleggen, een vliegtuig besturen en gezichten herkennen. Deze AI is vergelijkbaar met een autistische savant. Dit is indrukwekkend, maar staat nog ver af van A.G.I.: Artificial General Intelligence. Mocht dit ooit arriveren, wat gaat er dan gebeuren? De scenario’s in films zijn meestal niet erg rooskleurig. Denk maar aan The Terminator, The Matrix, 2001: A Space Odyssey en Ex Machina. Ook verschillende publieke figuren hebben gewaarschuwd voor de gevaren van AI, zoals Elon Musk, Stephen Hawking en Bill Gates.
Een van de gevaren is dat AGI-machines niet noodzakelijk dezelfde doelen als de mensheid nastreven: het goal alignment probleem. Bijvoorbeeld, wanneer de missie wereldvrede is, dan vindt de AI het misschien wel een goed idee om het hele menselijke ras uit te roeien. Zie bovenstaande films voor dergelijke scenario’s. De film die waarschijnlijk het meest realistische beeld geeft is 2001: A Space Odyssey. De boordcomputer HAL van het ruimteschip Discovery One besluit dat hij de missie naar Jupiter beter zonder bemanning kan uitvoeren, en probeert astronauten om zeep te helpen. Een duidelijk goal alignment probleem. Maar veel AI-experts worden boos van dit soort bangmakerij. Het is onmogelijk om ver vooruit te kijken bij technologische ontwikkelingen. We moeten gewoon bouwen, experimenteren en leren van wat er goed en fout gaat.
Dat kan zo zijn, maar er is wel een grote zorg die tijdig geadresseerd moet worden. Als AGI wordt ontwikkeld kan dat de machtsverhoudingen op de wereld enorm verstoren. Stel dat een dictator als Poetin, Trump of Xi als eerste AGI in handen krijgt… Ik durf er niet aan de denken. Of mogelijk even verschrikkelijk; een tech-gigant als Google of Facebook die ermee aan de haal gaat. Dit is een winner takes all contest. Degene die het als eerste krijgt zal binnen de kortste keren iedere industrie domineren. Hier moeten we afspraken over maken of het kan rampzalig uitpakken.
Maar er is ook heel veel dat AGI kan brengen. Een paar voorbeelden: tijdig de signalen herkennen van hartproblemen, kanker en suïcide. Het sterk verbeteren van verkeersveiligheid. Het laten slagen van veel meer operaties met robotchirurgie. Maar ook het mogelijk maken van een meer gelijkwaardige verdeling van welvaart binnen een vrije markt economie. En zorgen voor meer duurzaamheid en minder oorlog.
Dit klinkt idyllisch, maar een keerzijde hiervan kan weer zijn het inleveren van vrijheid. Een AI dictatorschap dus. Een tussenvorm kan zijn dat de AI als scenarioplanner fungeert die de mens alle ideale beleidsvoorstellen voorlegt. Maar de mensen blijven beslissen. We moeten hoe dan ook nadenken over hoeveel autonomie we machines geven. Dat geldt bijvoorbeeld ook voor zelfrijdende auto’s die ethische keuzes moeten maken, zoals het laten sterven van hun passagier of het inrijden op een groep kinderen. Wie beslist?
Er komt nogal wat bij kijken. En gezien de enorme revolutie die AI gaat inluiden is het niet verkeerd als hier zoveel mogelijk risicomanagement op los te laten. Alles wat er mogelijk verkeerd kan gaan moet in kaart worden gebracht en alle mogelijke maatregelen moeten worden genomen om deze risico’s in te dammen. De vuistregel van riskmanagement-expert Nassim Nicholas Taleb is hier van toepassing: ‘wat moeder natuur doet, is rigoureus totdat het tegendeel is bewezen; wat mens en wetenschap doen, is gebrekkig totdat het tegendeel is bewezen.’ We zijn gewaarschuwd.