Ook in VS lijkt publiek vertrouwen in AI laag
De afgelopen week kwam ChatGPT met een nieuwe versie. Een van de nieuwe functionaliteiten die hard gepromote werd door OpenAI was het vermogen van het platform om afbeeldingen te genereren in de stijl van andere artiesten. Dit is iets wat al mogelijk was met generatieve kunstmatige intelligentie (AI), maar nog niet in ChatGPT, een model voor tekst. Specifiek schepte oprichter Sam Altman op over het vermogen om afbeeldingen te genereren in de stijl van de Japanse animatiestudio Studio Ghibli. En de reactie hierop was op zijn zachts gezegd gemengd

Gebruikers van ChatGPT deelden enthousiast de output van het nieuwe ChatGPT-model op sociale media. Fans van Studio Ghibli waren niet onder de indruk. Oprichter Hayao Miyazaki is immers een sterk uitgesproken tegenstander van generatieve AI voor het maken van kunst. Hij ziet AI niet in staat om de menselijke ervaring en menselijke ziel in kunst vast te leggen. En juist daarom is de mogelijkheid van ChatGPT om de stijl van Ghibli na te maken waarschijnlijk zo zwaar benadrukt - het genereerde zeer veel heftige discussies over AI in het algemeen en ChatGPT in het bijzonder - OpenAI CEO Sam Altman is een aanhanger van het Amerikaanse adagium dat elke publiciteit goede publiciteit is.
De controverse over dit gebruik van ChatGPT om het werk na te apen van een animator die zeer uitgesproken is over het gebruik van generatieve AI, is tekenend voor een wijdere trend binnen de publieke perceptie van generatieve AI. Onder het bredere publiek lijkt veel minder enthousiasme voor en vertrouwen in de technologie te bestaan dan onder experts. Uit de AI-barometer bleek eerder al dat de perceptie van AI onder experts veel positiever is dan binnen het algemene publiek. Nieuw onderzoek van het Pew Research Center bevestigt dit nu.
Het onderzoek
De peiling van het Pew Research Center vond plaats in augustus 2024. Bij het onderzoek werden 5.410 leden van het algemene publiek geraadpleegd, en 1.013 AI-experts. De lijst van experts werd samengesteld uit mensen die actief waren in onderzoek naar of werken met kunstmatige intelligentie, en werden gerekruteerd onder sprekers op conferenties gerelateerd aan AI. Er werd gekeken naar zowel commerciƫlen als academische achtergronden.
In het onderzoek werden deelnemers gevraagd naar hun gebruik van AI, hun perceptie van de risico's ervan en hun mening over verantwoordelijk gebruik en de noodzaak van wetgeving en regels voor kunstmatige intelligentie. De resultaten waren grotendeels vergelijkbaar met die van de AI-monitor: een grote kloof tussen experts en het algemene publiek wat betreft het vertrouwen in de technologie. Dit ligt ook in de lijn van eerder onderzoek naar vertrouwen in producten die AI-functionaliteit adverteren.
Tekenend hiervoor is de vraag over het gebruik van AI. Aan de deelnemers van het onderzoek uit het algemeen publiek werd gevraagd hoe vaak ze denken AI te gebruiken in hun dagelijks leven, en aan experts werd gevraagd hoe vaak zij denken dat het publiek gebruik maakt van AI. Waar de experts inschatten dat 79% van de Amerikanen meerdere keren per dag AI gebruikten, gaf slechts 27% van de respondenten aan dat ze denken dat ze dagelijks AI gebruiken. Dit is vergelijkbaar met de AI-monitor, waarin het overgrote merendeel van de respondenten in eerste instantie niet dacht AI te gebruiken, totdat werd uitgelegd hoe breed AI al gebruikt wordt. Er bestaat dus een groot verschil tussen experts en het algemeen publiek over wat AI is.
Vertrouwenskloof
Maar verreweg de grootste kloof tussen het algemene publiek en de experts is in het vertrouwen in kunstmatige intelligentie. Slechts 17% van het algemene publiek zegt dat ze denken dat AI in de toekomst een positieve invloed zal hebben op de Verenigde Staten in de komende twintig jaar, ten opzichte van 56% van de experts. En slechts 24% van het publiek denkt dat ze er persoonlijk op vooruit zullen gaan door AI, tegen 43% die denkt dat AI schadelijk is voor hen. Onder de experts denkt 76% dat AI positief zal zijn voor hun toekomst, terwijl slechts 15% denkt dat AI schadelijk zal zijn voor hen.
Deze kloof zet zich voort wanneer gevraagd wordt naar de impact van AI op specifieke aspecten van de samenleving. Experts zijn vele malen positiever over de impact van AI op hoe mensen hun werk doen, de economie, het onderwijs en de zorg. Er zijn echter gebieden waarop de kloof veel minder groot is. Zo zijn het algemeen publiek en de experts het min of meer eens over de negatieve impact van AI op bijvoorbeeld nieuwsgaring en verkiezingen.
Opvallend is dat het onderzoek ook aantoont dat er een genderkloof is in het vertrouwen van AI. Zoals eerder gesteld was 56% van de experts van mening dat AI de komende twintig jaar een positieve invloed zal hebben op de VS. Wanneer dit antwoord wordt uitgesplitst op gender is er echter een sterk verschil te zien - 63% van de mannelijke respondenten is positief, tegenover 36% van de vrouwen. Deze kloof is ook bij andere vragen terug te zien, waar mannen significant positiever zijn dan vrouwen.
Wet- en regelgeving
De AI-monitor gaf aan dat de Nederlandse en Britse respondenten van mening waren dat de overheid een belangrijke rol heeft bij het in goede banen leiden van AI. Ruim twee derde van de respondenten in dit onderzoek gaven aan dat de overheid zou moeten ingrijpen in hoe en waarvoor AI gebruikt mag worden. Dit gebeurt in Europa bijvoorbeeld via de Artificial Intelligence Act (Verordening Kunstmatige Intelligentie, AI-act). Deze behoefte aan regulering lijkt ook in de Verenigde Staten aanwezig te zijn. Opvallend genoeg is dit een van de weinige dingen waarbij het algemeen publiek en de experts op dezelfde lijn lijken te zitten: 58% van het publiek stelt dat de huidige wet- en regelgeving voor AI niet streng genoeg is. Ook 56% van de experts denkt dit.
Wanneer gevraagd wordt naar het vertrouwen dat bedrijven eigen verantwoordelijkheid zullen nemen in hoe ze AI ontwikkelen en gebruiken is het resultaat vergelijkbaar. 59% van het publiek denkt dat bedrijven dit niet zelf zullen doen, en 55% van de experts denken hetzelfde. Ook geeft een meerderheid van beide groepen (62% van het publiek en 53% van de experts) aan dat ze geen vertrouwen hebben in het vermogen van de Amerikaanse overheid om effectieve wetgeving door te voeren.
Wat betreft de noodzaak van wet- en regelgeving en het vertrouwen in het vermogen van de Amerikaanse overheid om deze effectief door te voeren, lijkt onder experts een kloof te bestaan tussen experts die werkzaam zijn in het bedrijfsleven, en experts met een academische achtergrond. 60% van de academische experts denkt dat bedrijven niet te vertrouwen zijn met het verantwoordelijk ontwikkelen van AI, en 56% van deze categorie stelt dat de overheid niet in staat is om AI effectief te reguleren. Onder experts uit het bedrijfsleven is dit respectievelijk 39% en 48%.
Vertrouwen bouwen
Zowel dit nieuwe onderzoek van het Pew Research Center als de eerdere AI-monitor tonen aan hoeveel wantrouwen er is ten opzichte van AI, met name onder het algemene publiek. Ook laat het zien dat de behoefte aan strengere wet- en regelgeving breed gedeeld wordt, ook onder experts. In brede zin lijkt het erop dat het publiek in de Verenigde Staten en de EU vergelijkbare opvattingen hebben over het vertrouwen in AI, en de rol van de staat in het reguleren hiervan.
De stunt van OpenAI, met het herhaaldelijk opscheppen over het vermogen van het nieuwe ChatGPT-model om de stijl van Studio Ghibli na te apen, lijkt hier haaks op te staan. De publieke reactie was zeer negatief, en zal waarschijnlijk alleen maar bijdragen aan het gebrek aan vertrouwen in bedrijven om AI op een verantwoordelijke manier te ontwikkelen. Ook zal het bijdragen aan de roep om een sterkere bescherming van het auteursrecht voor het gebruik van beschermd materiaal in (generatieve) AI.
Wil men het vertrouwen van het publiek in AI vergroten, dan is het belangrijk om de kennis van wat AI is en hoe het gebruikt wordt te vergroten. Ook zullen bedrijven moeten laten zien dat ze verantwoordelijk om kunnen gaan met de technologie. Publiek wantrouwen zal alleen maar toenemen wanneer bedrijven als ChatGPT functionaliteiten adverteren die zo haaks staan op wat het publiek daadwerkelijk lijkt te willen.