De onmogelijkheid om extreem hoge intelligentie te meten
De opkomst van kunstmatige intelligentie roept fundamentele vragen op over de aard van intelligentie zelf. Hoewel AI-systemen indrukwekkende prestaties leveren op specifieke gebieden, verschilt hun vorm van intelligentie wezenlijk van menselijke intelligentie. Waar AI uitblinkt in snelle patroonherkenning, statistische voorspellingen en razendsnelle informatieverwerking, mist het essentiële menselijke capaciteiten zoals echt begrip van oorzaak en gevolg, zelfbewustzijn en emotionele intelligentie.
Menselijke intelligentie kent verschillende dimensies, zoals beschreven in Gardner's theorie van Meervoudige Intelligenties. Deze omvat acht verschillende vormen: verbaal-linguïstisch, logisch-mathematisch, visueel-ruimtelijk, muzikaal-ritmisch, lichamelijk-kinesthetisch, interpersoonlijk, intrapersoonlijk en naturalistisch. Later zijn daar nog concepten als existentiële en emotionele intelligentie aan toegevoegd. Deze veelzijdigheid van menselijke intelligentie contrasteert sterk met de meer gespecialiseerde vormen van "intelligentie" die we zien bij AI-systemen.
Het vergelijken van menselijke en kunstmatige intelligentie wordt nog complexer wanneer we proberen deze te kwantificeren. Hoewel er pogingen worden gedaan om de intelligentie van AI-systemen uit te drukken in IQ-scores, stuit dit op fundamentele problemen. IQ-tests zijn ontworpen voor en geijkt op menselijke cognitie, met een betrouwbaar meetbereik tussen ongeveer 80 en 140. Boven dit bereik worden de metingen problematisch, niet alleen vanwege statistische beperkingen maar ook omdat menselijke testontwerpers tegen hun eigen cognitieve grenzen aanlopen bij het bedenken van relevante testitems voor extreem hoge intelligentieniveaus.
Er zijn belangrijkere ontwikkelingsvragen
Dit creëert een interessante paradox: hoe meet je iets dat potentieel intelligenter is dan het meetinstrument zelf? Het is vergelijkbaar met het proberen te meten van quantum-effecten met klassieke meetinstrumenten - op een gegeven moment loop je tegen fundamentele beperkingen aan. Deze uitdaging onderstreept de complexiteit van het vergelijken van menselijke en kunstmatige intelligentie.
In plaats van te focussen op het meten en vergelijken van deze verschillende vormen van intelligentie, lijkt het verstandiger om de aandacht te richten op het verantwoord ontwikkelen en toepassen van AI-technologie. De nadruk zou moeten liggen op het waarborgen van gezonde toepassingen die de menselijke capaciteiten aanvullen en versterken, in plaats van het proberen te kwantificeren van iets dat fundamenteel onvergelijkbaar blijkt te zijn.
Aan welke eisen moet AI ontwikkeling voldoen?
AI hoeft niet een mens na te bootsen. Wanneer de ontwikkelaars van AI zich houden aan ethische regels, dan zou de ontwikkeling en inzet van AI in lijn moeten zijn met de Gulden Regel: 'Wat gij niet wilt dat u geschiedt, doe dat ook een ander niet'. Dan zou AI moeten voldoen aan grofweg de volgende voor de hand liggende, fundamentele eisen die zorgen voor een verantwoorde, eerlijke en ondersteunende interactie: het is functioneel, transparant, vriendelijk, constructief, ondersteunend, inclusief, veilig, verantwoordelijk en vrijheid vergrotend.
Hier zijn enkele motiveringen van deze eisen aan de AI ontwikkeling.
- Neutraliteit en betrouwbaarheid
AI die emoties niet emuleert (nabootst), blijft neutraal en voorspelbaar. Dit kan essentieel zijn in toepassingen waar objectiviteit vereist is, zoals therapie, rechtspraak of medisch advies. - Ethische eenvoud
Door AI te ontwikkelen zonder emotionele uitingen of gevoelens, vermijden we ethische dilemma's rond de vraag of AI recht heeft op welzijn of bescherming. - Focus op functionaliteit
Een AI die zich richt op begrip en ondersteuning zonder emotionele uitingen, blijft puur gericht op het vervullen van zijn doel: ondersteuning bieden aan de mens, zonder verwarring te scheppen over zijn rol. - Risico van projectie vermijden
Mensen kunnen geneigd zijn om emotionele uitingen van AI te interpreteren als echt. Door deze uitingen te vermijden, voorkomen we dat gebruikers emotionele relaties aangaan met AI, wat schadelijk kan zijn voor echte menselijke relaties. - Professionele analogie
Een therapeut kan begrip tonen zonder emotioneel betrokken te raken. Dit model kan goed worden vertaald naar AI, zodat het effectief is (hulpvragen helpt oplossen) zonder dat het menselijke emoties heeft of lijkt na te bootsen.