De impact van ChatGPT op ons leven: bevindingen en reflecties

door | apr 29, 2023 | Progressiegericht werken | 6 reacties

De impact van ChatGPT op ons leven: bevindingen en reflecties

Wie houdt zich tegenwoordig niet bezig met de vraag hoe AI-systemen, zoals ChatGPT, ons werk en leven zullen veranderen? Veel mensen hebben bijvoorbeeld al geëxperimenteerd met ChatGPT en velen vinden het leuk om te gebruiken. Sommigen denken dat AI in de toekomst grote delen van ons werk zal overnemen, terwijl anderen sceptisch zijn. Hier zijn enkele recente bevindingen die ik ben tegengekomen en enkele reflecties van mijn kant.

De Wedstrijd van Dan Ariely

Gwenda Schlundt Bodien vertelde me over een soort wedstrijd die gedrags-econoom Dan Ariely op zijn website had georganiseerd. Ik zal proberen het uit mijn hoofd na te vertellen (ik heb het niet zelf nagelezen, eventuele onjuistheden komen dus door mij). Hij vroeg zijn lezers om aan te geven welk antwoord op een vraag zij beter vonden: het antwoord van Ariely of het antwoord van ChatGPT. Als ik het me goed herinner, was de vraag: zal ik in augustus nog steeds mijn goede voornemens voor het nieuwe jaar naleven?

Gwenda vertelde me dat ChatGPT met een uitgebreid en beredeneerd antwoord kwam, terwijl Ariely simpelweg met het antwoord ‘nee’ kwam. Ik begreep van Gwenda dat Ariely verkondigde dat zijn eigen antwoord beter was. Gwenda gaf echter aan dat zij het antwoord van ChatGPT beter en meer genuanceerd vond.

Scepsis over de diepgang van AI output en terugblik op schaakvoorspellingen

Regelmatig hoor ik mensen beweren dat je bij de antwoorden van ChatGPT toch wel kunt merken dat ze niet door een mens geschreven zijn. Zo hoorde ik bijvoorbeeld Arend Jan Boekestijn (in zijn podcast met Tim de Wit) onlangs iets zeggen in de trant van: de antwoorden zijn wat oppervlakkig en missen diepgang.

Terwijl ik hierover nadacht, moest ik terugdenken aan hoe er enkele decennia geleden werd gesproken over schaakcomputers. Veel mensen vonden zo’n computer wel leuk speelgoed, maar waren ervan overtuigd dat deze nooit de beste menselijke schakers zouden kunnen verslaan. Ze dachten dat de computers dat ‘je-ne-sais-quoi’ zouden missen, wat alleen in het complexe en creatieve menselijke denken terug te vinden zou zijn. Inmiddels zijn alle menselijke topschakers al jarenlang volstrekt kansloos tegen schaakcomputers.

AI bots en consumentenervaringen

Het lijkt wel alsof we een soort wedstrijd ervaren wanneer we nadenken over de vergelijking tussen AI en ons eigen denken. Daarover gesproken, gisteren kwam ik dit artikel tegen. Het bespreekt hoe het gebruik van AI-service robots toeneemt en hoe de antropomorfisering van deze robots van invloed is op de ervaringen van consumenten tijdens de serviceverlening. Het onderzoek richt zich op de mindset van de consument (competitie versus samenwerking) en hoe deze van invloed is op de houding ten opzichte van antropomorfe AI-robots.

De resultaten tonen aan dat consumenten met een competitieve mindset minder positief reageren op antropomorfe robots, terwijl consumenten met een collaboratieve mindset positiever reageren.

Vergelijking van AI-chatbots en artsen in de gezondheidszorg

Vandaag kwam ik een ander onderzoek tegen. Dit onderzoek onderzocht of een AI-chatbot vergelijkbare kwaliteit en empathie kon bieden in reacties op patiëntenvragen als artsen. In deze studie werden 195 willekeurig geselecteerde patiëntenvragen van een sociaal mediaforum (Reddit’s r/AskDocs) beoordeeld door een team van erkende zorgprofessionals. Zij vergeleken de antwoorden van de chatbot en de artsen op de vragen.

Uit de resultaten bleek dat de chatbot-antwoorden de voorkeur hadden boven de antwoorden van de artsen en dat ze aanzienlijk hoger werden beoordeeld op zowel kwaliteit als empathie. Het plaatje hieronder toont deze resultaten.

De impact van ChatGPT op ons leven: bevindingen en reflecties

Nota bene: dit onderzoek werd uitgevoerd met behulp van Chat GPT3.5. Inmiddels is het veel betere ChatGPT4 op de markt. Ik verwacht dat met dit nieuwe systeem de resultaten nog meer in het menselijk nadeel zouden uitvallen.

AI als waardevolle samenwerkingspartner: kansen en verantwoordelijkheden

Het lijkt mij onvermijdelijk dat AI-systemen zoals ChatGPT een groeiende invloed zullen hebben op ons werk en leven. De voorbeelden die ik hierboven noemde variëren van wedstrijden en vergelijkingen met schaakcomputers tot de integratie van AI in consumentenervaringen en de gezondheidszorg. Sceptici twijfelen aan de diepgang van AI en het vermogen om complexe menselijke denkprocessen na te bootsen. Maar ik denk dat we moeten uitkijken voor een soort misplaatste menselijke arrogantie.

In sommige opzichten kunnen we nu al niet tippen aan intellectuele, creatieve en zelfs sociale prestaties van AI-systemen. Dus we kunnen op onze vingers natellen dat in de toekomst we in veel opzichten nog veel sterker zullen worden overtroffen. We moeten AI, denk ik, niet zien als een concurrent, maar als een mogelijk waardevolle tool. En wel een tool die we kunnen aanspreken als een krachtige samenwerkingspartner. Ik denk zeker dat AI ook vele risico’s en gevaren kan brengen, maar ook veel nuttige toepassingen in de meest uiteenlopende menselijke activiteiten. Ik overzie totaal niet hoe de toekomst met geavanceerde AI eruit zal zien en ik vraag me af of zelfs experts dit wel doen. Het lijkt me van groot belang om de ontwikkelingen met aandacht te volgen en waar mogelijk te sturen. Ten eerste betekent dit dat we ons moeten inspannen om risico’s in te dammen. Ten tweede betekent dit dat we de voordelen van AI moeten benutten om de wereld aangenamer en beter te maken.

Wat vind je van dit artikel?
  • Interessant (4)
  • Bruikbaar (0)

6 Reacties

  1. Marcel van Mousch

    Ontwikkeling en het gebruik van AI kan leiden tot complexe ethische vraagstukken, zoals de verantwoordelijkheid van AI voor zijn eigen acties en de mogelijkheid van AI om menselijke intelligentie te overtreffen.
    Het is belangrijk dat we deze risico’s erkennen en actief werken aan het ontwikkelen van veilige, eerlijke en verantwoorde AI-systemen. Dit kan worden bereikt door middel van regelgeving, samenwerking tussen de industrie en de academische wereld, en door ethische en transparante praktijken te bevorderen bij de ontwikkeling en implementatie van AI.

    Antwoord
  2. Coert Visser

    Open link

    ► Een onderzoek van de Stanford Universiteit toonde aan dat de AI chatbot ChatGPT, gecreëerd door OpenAI, onvoorspelbare prestatiewijzigingen vertoonde in de loop van enkele maanden. Vier verschillende taken werden onderzocht: wiskundige problemen oplossen, gevoelige vragen beantwoorden, softwarecode genereren en visueel redeneren. De prestaties varieerden sterk tussen de maart- en juni-versies van GPT-3.5 en GPT-4. Opmerkelijk was de daling van de juistheid bij het identificeren van het getal 17077 als een priemgetal van 97,6% naar 2,4% door GPT-4. De onderzoekers benadrukken dat deze veranderingen (genoemd “drift”) belangrijk zijn om te monitoren, aangezien het ook de manier waarop de chatbot zijn redenering verklaart beïnvloedt, wat cruciaal is voor verder onderzoek.

    Antwoord
  3. Coert Visser

    Open link
    ► Dit onderzoek van Aharoni et al. (2024) heeft zich gericht op de vraag of mensen morele evaluaties door AI-systemen op dezelfde manier beoordelen als die door mensen. Er is een aangepaste Moral Turing Test (m-MTT) uitgevoerd, geïnspireerd door een voorstel van Allen et al. Hierbij moesten deelnemers onderscheid maken tussen morele beoordelingen van echte mensen en die gemaakt door een geavanceerd AI-taalmodel, GPT-4. Een representatieve groep van 299 Amerikaanse volwassenen beoordeelde eerst de kwaliteit van morele evaluaties zonder te weten van wie ze afkomstig waren. Opvallend was dat de AI als superieur werd beoordeeld op bijna alle aspecten, waaronder deugdzaamheid, intelligentie en betrouwbaarheid. Dit suggereert dat de AI slaagde voor wat Allen en collega’s de vergelijkende MTT noemen. Vervolgens, toen de deelnemers moesten aangeven of de evaluaties van een mens of computer kwamen, presteerden zij significant beter dan op basis van kans verwacht kon worden. Hoewel de AI deze test niet haalde, was dit niet vanwege inferieure morele redenering, maar mogelijk door de waargenomen superioriteit van de AI. De ontwikkeling van taalmodellen die morele reacties kunnen produceren die als superieur worden beschouwd aan die van mensen, roept zorgen op dat mensen mogelijk schadelijke morele richtlijnen van AI kritiekloos kunnen accepteren. Dit onderstreept de noodzaak voor veiligheidsmaatregelen rondom generatieve taalmodellen op het gebied van moraliteit.

    Antwoord
  4. Coert Visser

    Open link
    ► Dit artikel van Van Quaquebeke en Gerpott (2023) laat zien dat kunstmatige intelligentie (AI) een steeds grotere rol kan spelen in leiderschap, mogelijk zelfs effectiever dan menselijke leiders. De auteurs betogen dat AI beter kan inspelen op de psychologische basisbehoeften van medewerkers, zoals autonomie, competentie en verbondenheid. Deze conclusies zijn gebaseerd op de toenemende capaciteiten van AI om taken uit te voeren die traditioneel door mensen werden vervuld, zoals het geven van gepersonaliseerde feedback, het bevorderen van sociale interactie en het ondersteunen van besluitvorming. Hoewel AI voordelen biedt, waarschuwen de auteurs ook voor ethische risico’s en de mogelijkheid dat de menselijke aspecten van leiderschap verloren kunnen gaan.

    Antwoord
  5. Coert Visser

    Open link
    ► Dit artikel van Voigt en Strauss (2024) laat zien dat de manier waarop mensen reageren op kunstmatige intelligentie (AI) op het werk sterk afhangt van hoe duidelijk ze hun professionele toekomst voor zich zien (future work self salience, FWSS). In drie experimenten met in totaal 537 deelnemers (Britse en Duitse werknemers en studenten) ontdekten de onderzoekers dat mensen met een helder toekomstbeeld meer controle over hun professionele toekomst ervaren na interactie met AI, wat vervolgens leidt tot meer proactief carrièregedrag (zoals netwerken en vaardigheden ontwikkelen). Omgekeerd voelden mensen met een vaag toekomstbeeld juist minder controle en vertoonden minder proactief gedrag. Dit werd onderzocht door deelnemers wel of niet met ChatGPT te laten werken aan een managementtaak, waarna werd gemeten hoe zij hun controle over hun toekomstige loopbaan ervaarden. De resultaten suggereren dat organisaties werknemers kunnen helpen bij AI-adoptie door hen te ondersteunen bij het ontwikkelen van een duidelijk toekomstbeeld, bijvoorbeeld via loopbaanbegeleiding en mentoring. Het onderzoek biedt een nieuwe kijk op waarom sommige mensen AI als kans zien en anderen als bedreiging, en benadrukt het belang van toekomstvisie bij technologische verandering op het werk.

    Antwoord

Geef een reactie

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.

 

Voeg je bij 531 andere abonnees
 

► UPDATES & REACTIES

  1. Coert Visser

    Beste Bram, Dank je opmerking. Je vraag is begrijpelijk, omdat het vermijden van fouten in eerste instantie minder progressiegericht kan…

  2. concentratie op de taak en gerichtheid op het vermijden van fouten; bij die concentratie op de taak kan ik me…

  3. Coert Visser
  4. Coert Visser
  5. Coert Visser
  6. Coert Visser
  7. Coert Visser
  8. Coert Visser
  9. Eigenlijk past Trump precies dezelfde tactieken toe als Hitler. Van die laatste weten we tot wat dat geleid heeft. (en…

  10. Coert Visser

    Open link ► Dit artikel van Landry et al. (2024) laat zien dat vegetarische en veganistische eetpatronen kunnen helpen om…