Claudia Verbree | Juffrouw Rood

Het gevaar van ‘techno-optimisme’

Voor OnderNamen Magazine interviewde ik Dr. Gerko Vink, Associate Professor en dark data scientist en Dr. Mirko Schäfer, Associate Professor Data, AI & Society van Universiteit Utrecht. Zij geven advies en trainingen aan bedrijven en overheden over data science en AI (artificial intelligence). Dit is een overkoepelend onderwerp binnen de universiteit waar meerdere faculteiten bij betrokken zijn, zoals bèta-, sociale wetenschappen en geesteswetenschappen. De software ‘mice’ die aan de Universiteit Utrecht wordt ontwikkeld voor incomplete data analyse is openbaar en gratis toegankelijk voor ieder bedrijf dat daar iets mee wil.

Gerko en Mirko geven trainingen aan managers van bedrijven en overheden. ‘We zien dat beslissingen over data science en AI vaak top-down genomen worden’, aldus Gerko.  ‘Daarom vinden we het belangrijk om bewustwording te creëren bij de managementlaag. We helpen ze om de volle breedte van een implementatie te overzien, inclusief alle risico’s en valkuilen.’

Mirko vult aan: ‘Er bestaan veel mythes over dit onderwerp. Het is een soort “techno-optimisme”. Veel rationeel denkende ondernemers geloven gek genoeg in de mooie verhalen omtrent dit onderwerp of gaan klakkeloos mee in wat een commerciële adviseur ze vertelt. Dit is een serieus probleem aan het worden. Mijn advies is om je onafhankelijk te laten informeren, want wat is bij voorbeeld ChatGPT precies? Het is niets meer en minder dan een statistisch voorspelmodel. AI is niet intelligent, het doet berekeningen op basis van data en een model.

Ben je nieuwsgierig geworden en wil je het gehele artikel lezen?

De Data School aan de Universiteit Utrecht biedt in-house trainingen aan voor verantwoorde AI en datapraktijken. Deelnemers leren onder andere het toepassen van impact assessments voor AI, iets dat in het kader van de AI Act verplicht gesteld wordt.

Meer informatie op dataschool.nl

Vorige blog
Mijn opdracht als decaan
Volgende blog
Initiatievenkrant Houten Noordoost
Menu