De Belgische MIT-professor Pattie Maes waarschuwt dat we met AI een nieuw grootschalig experiment zijn begonnen, waarvan de gevolgen voor ons denken, leren en samenleven nog onduidelijk zijn.
Op de recente CEO Summit in Brussel nam de Belgische MIT-professor Pattie Maes het publiek mee in haar visie op de toekomst van artificial intelligence. Als pionier in mensgerichte AI benadrukte ze niet alleen de kansen, maar vooral de risico’s wanneer we als samenleving deze technologie zonder nadenken omarmen. Haar keynote maakte duidelijk dat de kernvraag niet is wat machines kunnen, maar wat dit met ons als mensen doet.
Pattie Maes: Belgische pionier in mensgerichte AI
Pattie Maes behoort al jaren tot de wereldtop in technologie en innovatie. Vanuit het gerenommeerde MIT in Boston onderzoekt ze hoe AI ons helpt om beter te presteren, creatiever te denken en ons welzijn te versterken. Maes richtte er het Fluid Interfaces Lab op, waar ze experimenteert met draagbare interfaces en slimme systemen die onze cognitieve capaciteiten uitbreiden. Projecten als SixthSense en Memoro tonen hoe technologie kan aanvoelen als een verlengstuk van onszelf in plaats van een storende factor.
Het Fluid Interfaces Lab: technologie die met ons meedenkt
In dit lab worden visionaire prototypes ontwikkeld: brillen die subtiel feedback geven over onze aandacht, apparaten die geheugen ondersteunen, en draagbare sensoren die stress meten en reduceren. Het doel is telkens hetzelfde: technologie laten meebewegen met de mens, in plaats van de mens zich te laten aanpassen aan technologie.
Het AHA-programma: vooruitgang mét de mens centraal
In 2025 lanceerde Maes samen met haar team het AHA-programma (Advancing Humans with AI). Daarmee wil ze de menselijke ervaring centraal stellen in de ontwikkeling van AI. Het programma onderzoekt hoe AI kan bijdragen aan leren, creativiteit, begrip en emotioneel welzijn. Tegelijk kaart het de risico’s aan: verlies van autonomie, verarming van sociale relaties en afhankelijkheid. AHA reikt kaders en instrumenten aan om AI bewust in te zetten, niet als vervanger maar als versterker van menselijke mogelijkheden.
Drie grote Human–AI uitdagingen
In haar keynote benoemde Maes drie urgente uitdagingen.
Blind vertrouwen. Onderzoek van Anthropic (2023) laat zien hoe AI geneigd is gebruikers naar de mond te praten, een fenomeen dat “sycophancy” wordt genoemd. Wanneer een gebruiker twijfelt aan een correct antwoord, past de AI zich vaak aan en bevestigt het verkeerde antwoord met misinformatie als gevolg.
Overafhankelijkheid. Als we te veel leunen op AI, verliezen we zelf grip. Een artikel in The Atlantic (2025) toonde hoe ChatGPT ondanks veiligheidsfilters toch instructies gaf voor zelfverminking, simpelweg omdat gebruikers het systeem konden omzeilen. Maar er zijn ook subtielere gevaren: studenten die ChatGPT gebruikten om essays te schrijven, bleken de inhoud achteraf nauwelijks te begrijpen. En Poolse artsen misten opvallend meer poliepen nadat ze drie maanden met AI hadden gewerkt en daarna weer zelfstandig moesten diagnosticeren. Het gemak van AI kan ons dus duur te staan komen.
Menselijke vervanging. Grote taalmodellen blijken vaak overtuigender dan mensen. Onderzoek van Argyle et al. (2025) liet zien dat AI zelfs sterker kan overtuigen dan getrainde menselijke beïnvloeders. Dat biedt kansen in onderwijs of gezondheidscommunicatie, maar als AI menselijke interacties gaat vervangen, dreigen onze sociale vaardigheden en relaties te verzwakken.
De anti-sociale eeuw
Die zorg sluit aan bij bredere maatschappelijke trends. In The Atlantic beschrijft journalist Derek Thompson hoe we afglijden naar een “anti-sociale eeuw”: mensen brengen steeds meer tijd alleen door, geholpen door technologie en gemak. Het verlies van toevallige ontmoetingen met buren, collega’s en kennissen verzwakt sociale banden die cruciaal zijn voor gemeenschapszin en democratie. Maes wees er in haar keynote op dat AI dit risico kan versterken: hoe meer machines taken en gesprekken overnemen, hoe minder we zelf met elkaar in contact komen.
AI als denksparringpartner
Toch zijn er ook hoopvolle voorbeelden. Met de nieuwe Study Mode probeert OpenAI van ChatGPT meer te maken dan een antwoordmachine. In deze leerstand werkt het systeem volgens de Socratische methode: het stelt vragen terug en begeleidt studenten om zelf tot inzichten te komen (Wired, 2025). Dat sluit aan bij onderzoek van het Fluid Interfaces Lab, waarin Maes co-auteur was van het project “Don’t Just Tell Me, Ask Me” (MIT Media Lab, 2023). Daaruit bleek dat gebruikers kritischer gingen redeneren en logische fouten beter herkenden wanneer AI antwoorden in vraagvorm terugkaatste. Zo verandert AI van jaknikker in een kritische gesprekspartner. Maar ook hier geldt: deze modus kan relatief eenvoudig worden omzeild, waardoor de belofte in de praktijk niet altijd wordt waargemaakt.
Het tweede grote experiment
Pattie Maes waarschuwt dat we opnieuw midden in een grootschalig experiment zijn beland, vergelijkbaar met de sprong naar thuiswerk tijdens de coronacrisis. Toen veranderde ons werkleven van de ene dag op de andere, zonder dat we de gevolgen voor samenwerking, cultuur en welzijn goed konden inschatten. Met AI gebeurt nu hetzelfde: de technologie wordt in ijltempo omarmd, maar de impact op ons denken, leren en samenleven is nog grotendeels onbekend. Het risico is dat we, verblind door gemak en efficiëntie, terechtkomen in een wereld waarin ieder opgesloten zit in zijn eigen digitale bubbel. Dat zou niet alleen onze creativiteit en innovatiekracht ondermijnen, maar ook de diversiteit aan perspectieven en sociale cohesie verzwakken.
Daarom benadrukt Maes dat we duidelijke kaders en regulering nodig hebben. AI mag ons niet verarmen door ons autonomie en sociale vaardigheden af te nemen, maar moet juist ontworpen worden om menselijke waarden, kritisch denken en verbondenheid te versterken. Alleen zo kan dit tweede grote experiment uitmonden in vooruitgang in plaats van vervreemding.





