Ik kan dit zeker bevestigen. Ook ik heb chatgpt iets te vaak betrapt op 'AI hallucinaties'. Het model verzint maar heel stellig wat dingen die nergens ik de geraadpleegde bronnen staan. En als je hem erop wijst bedankt hij je voor het corrigeren om daarna vaak genoeg alsnog verkeerde informatie te geven.Leinad schreef: do 16 okt 2025, 12:39Mijn ervaring is dat Chatgpt simpelweg onbetrouwbaar is als de vraag meerdere lagen bevat. Ik heb het (zakelijk) getest met een aantal cao-gerelateerde vragen: in geen enkel geval kwam er een correct antwoord uit. Geen enkel geval! Ik heb tien vragen gesteld, waarbij de dienst wel steeds 1 "schakeltje" verder moest zoeken. Bijvoorbeeld informatie uit twee verschillende artikelen/hoofdstukken halen.fransg schreef: do 16 okt 2025, 12:21 Mijn ervaring is dat de kwaliteit van de reactie sterk afhankelijk is van de kwaliteit van de vraagstelling.
Ook maakt het misschien wat uit of je de betaalde versie hebt en van versie 5 de 'lang nadenken' optie kiest.
Ik vind dat genoeg om niet blind te vertrouwen op chatgpt.
Ook op de autofora waar ik actief ben komt de dienst soms met foutieve antwoorden. Maar omdat ik zelf onvoldoende technisch ben kan ik dat lastig beoordelen.
Informatie uit artikelen en hoofstukken halen zou ik bijvoorbeeld een ruimte aanmaken op perplexity en daar dan bestanden uploaden. Zo train je als het waren het model als bijvoorbeeld een CAO expert. Die kan je dan gericht vragen stellen op dat onderwerp mits je de bronnen levert. Je kan ook zeggen dat hij eerst de geüploade bronnen moet raadplegen en daarna nog het internet moet uitpluizen.
Mijn ervaring hiermee is best indrukwekkend nogmaals mits je je AI daarop traint.
Er bestaat geen kant en klare AI programma die even alles en nog wat voor je kan uitpluizen op hele specifieke vragen met 100% nauwkeurigheid.