https://apache.be/2026/01/08/rector-pet ... ingsspeechUGent-rector Petra De Sutter gebruikte onbestaande citaten in haar openingsrede in september. De oorzaak: #AI. Dat bevestigt UGent aan @apache_be. De fouten werden op de website van UGent in oktober ‘opgekuist’ zonder uitleg, maar mét een nieuwe fout. Nadat Apache hierover vragen stelde, voegde #UGent een disclaimer toe.
Volgens de UGent-woordvoerder zal bij toekomstige toespraken “extra zorgvuldig omgesprongen worden met het gebruik van generatieve AI”.
AI fail.
- on4bam
- Moderator

- Berichten: 7021
- Lid geworden op: 05 mei 2006, 16:05
- Locatie: 127.0.0.1 of elders
- Uitgedeelde bedankjes: 328 keer
- Bedankt: 675 keer
- Recent bedankt: 3 keer
Toch maar oppassen om AI te gebruiken.
Bye, Maurice
https://on4bam.com
https://on4bam.com
- Splitter
- Elite Poster

- Berichten: 6096
- Lid geworden op: 10 maa 2010, 12:30
- Uitgedeelde bedankjes: 69 keer
- Bedankt: 628 keer
- Recent bedankt: 5 keer
goh, ik zag de naam "de sutter" en meer informatie heb ik eigenlijk niet nodig om te weten dat het weer om een of andere fail van haarzelf gaat dewelke ze op iets willen schuiven zonder zelf verantwoordig af te leggen.
het blijft een politieker hé
het blijft een politieker hé
- Joe de Mannen
- Elite Poster

- Berichten: 7222
- Lid geworden op: 22 feb 2005, 12:46
- Uitgedeelde bedankjes: 532 keer
- Bedankt: 700 keer
- Recent bedankt: 2 keer
Dat is dan de nieuwe dooddoener, maar we verlagen onze standaarden nog maar eens...
J.
J.
Ik ben alleen verantwoordelijk voor mij eigen uitspraken, niet voor wat anderen ervan maken of aan toevoegen...
- Sinna
- Elite Poster

- Berichten: 3401
- Lid geworden op: 14 nov 2008, 08:22
- Twitter: KrSi78
- Locatie: Brugge
- Uitgedeelde bedankjes: 353 keer
- Bedankt: 241 keer
- Recent bedankt: 3 keer
- Contacteer:
Ja, tenzij die je die foute quote bewust maakte. Als het onbewust was, dan heb je 'gewoon' verkeerd geparafraseerd...cadsite schreef: 4 dagen geleden Vind je klakkeloos overnemen uit AI dan minder erg dan zelf een foute quote schrijven?
Computer(k)nul
- Dizzy
- Elite Poster

- Berichten: 13296
- Lid geworden op: 06 dec 2009, 13:28
- Locatie: Hier ter plaatse
- Uitgedeelde bedankjes: 646 keer
- Bedankt: 752 keer
- Recent bedankt: 2 keer
Tekenend dat dit zelfs bij een unief gebeurt. Het is trouwens al lang niet het enige geval want ook gerenommeerde consultancybureau's gingen al met de billen bloot. AI is nuttig en handig maar je merkt dat de mens vaak gewoon gemak en luiheid verkiest boven correctheid.
Zelf heb ik het ook al gemerkt dat je de bronnen van AI totaal niet kan vertrouwen. Men geeft een bron op maar in deze bron is niets te vinden voor wat het resultaat zou moeten zijn van de bron. Een mens die zo zou handelen zou niemand nog vertrouwen maar toch geloven velen nog dat men "weldra" de mens zal overtreffen
Zelf heb ik het ook al gemerkt dat je de bronnen van AI totaal niet kan vertrouwen. Men geeft een bron op maar in deze bron is niets te vinden voor wat het resultaat zou moeten zijn van de bron. Een mens die zo zou handelen zou niemand nog vertrouwen maar toch geloven velen nog dat men "weldra" de mens zal overtreffen
Wil je iemand kwaad maken, vertel hem dan leugens. Wil je iemand razend maken, vertel hem dan de waarheid.
- on4bam
- Moderator

- Berichten: 7021
- Lid geworden op: 05 mei 2006, 16:05
- Locatie: 127.0.0.1 of elders
- Uitgedeelde bedankjes: 328 keer
- Bedankt: 675 keer
- Recent bedankt: 3 keer
https://www.vrt.be/vrtnws/nl/2026/01/08 ... hallucina/.
Zoals al dikwijls werd bevestigd, AI kan een tool zijn om dingen gemakkelijker te maken maar het is altijd nodig om alles uitgebreid te controleren. Zaken als deze maken nog maar eens duidelijk dat AI niet zaligmakend is en het bijkomend probleem is dat AI engines alles op internet afschuimen en dan de foute teksten die met andere LLM's gemaakt zijn als bron gebruiken.
Hoe langer en hoe meer AI content er overal gepubliceerd wordt hoe meer de foute info de LLMs zelf verkeerd gaan "leren" en verder aanmaken. Combineer dit met mensen die hun gegenereerde teksten niet nakijken en dan krijg je dit.
Zoals al dikwijls werd bevestigd, AI kan een tool zijn om dingen gemakkelijker te maken maar het is altijd nodig om alles uitgebreid te controleren. Zaken als deze maken nog maar eens duidelijk dat AI niet zaligmakend is en het bijkomend probleem is dat AI engines alles op internet afschuimen en dan de foute teksten die met andere LLM's gemaakt zijn als bron gebruiken.
Hoe langer en hoe meer AI content er overal gepubliceerd wordt hoe meer de foute info de LLMs zelf verkeerd gaan "leren" en verder aanmaken. Combineer dit met mensen die hun gegenereerde teksten niet nakijken en dan krijg je dit.
Bye, Maurice
https://on4bam.com
https://on4bam.com
- Joe de Mannen
- Elite Poster

- Berichten: 7222
- Lid geworden op: 22 feb 2005, 12:46
- Uitgedeelde bedankjes: 532 keer
- Bedankt: 700 keer
- Recent bedankt: 2 keer
Wat ik al lang voorspelde: uiteindelijk krijg je LLM's gebaseerd op LLM-gegenereerde data en dan is niks nog te vertrouwen en komt er ook niks nieuws meer.
Maar laten we het allemaal onder de mat vegen met 'er zijn ergere zaken,dus het is ok' en verder gaan met het verlagen van onze standaarden.
J.
Maar laten we het allemaal onder de mat vegen met 'er zijn ergere zaken,dus het is ok' en verder gaan met het verlagen van onze standaarden.
J.
Ik ben alleen verantwoordelijk voor mij eigen uitspraken, niet voor wat anderen ervan maken of aan toevoegen...
- Sinna
- Elite Poster

- Berichten: 3401
- Lid geworden op: 14 nov 2008, 08:22
- Twitter: KrSi78
- Locatie: Brugge
- Uitgedeelde bedankjes: 353 keer
- Bedankt: 241 keer
- Recent bedankt: 3 keer
- Contacteer:
In die zin vind ik Perplexity wel een fijne AI-assistent: die lijst ook de gebruikte bronnen op (die bestaan, maar het is uiteraard aan jou om de inhoud van die bronnen te controleren). Het bedrijf achter Perplexity vind ik dan weer minder: wat ze met hun Comet-browser uitvreten qua privacy is een regelrechte ramp.Dizzy schreef: 4 dagen geleden Zelf heb ik het ook al gemerkt dat je de bronnen van AI totaal niet kan vertrouwen. Men geeft een bron op maar in deze bron is niets te vinden voor wat het resultaat zou moeten zijn van de bron.
Computer(k)nul
- Splitter
- Elite Poster

- Berichten: 6096
- Lid geworden op: 10 maa 2010, 12:30
- Uitgedeelde bedankjes: 69 keer
- Bedankt: 628 keer
- Recent bedankt: 5 keer
ach ach, chatgpt telde gewoon de 13de maand erbij, dat moet toch kunnen?
het grote probleem (buiten het klakkeloos gebruik van AI dat je overal ziet opkomen en waarbij er van kwaliteit amper nog sprake is, laat staan controle) is dat het LLM's zijn en GEEN "AI"
het zijn dus gewoon wildgegroeide microsoft word processors dewelke wat gegokte tekst aan elkaar spugen dewelke lijkt op iets dat je misschien zou verwachten.
en als je daar dan de bias van "it's AI" aan toevoegt, sja.
het is zoals hierboven gezegd, het verlaagt de standaarden, en honestly, daar hebben de mensen eigenlijk geen hulp bij nodig, want dat is zo al snel genoeg aan het gebeuren.
het grote probleem (buiten het klakkeloos gebruik van AI dat je overal ziet opkomen en waarbij er van kwaliteit amper nog sprake is, laat staan controle) is dat het LLM's zijn en GEEN "AI"
het zijn dus gewoon wildgegroeide microsoft word processors dewelke wat gegokte tekst aan elkaar spugen dewelke lijkt op iets dat je misschien zou verwachten.
en als je daar dan de bias van "it's AI" aan toevoegt, sja.
het is zoals hierboven gezegd, het verlaagt de standaarden, en honestly, daar hebben de mensen eigenlijk geen hulp bij nodig, want dat is zo al snel genoeg aan het gebeuren.
- Dizzy
- Elite Poster

- Berichten: 13296
- Lid geworden op: 06 dec 2009, 13:28
- Locatie: Hier ter plaatse
- Uitgedeelde bedankjes: 646 keer
- Bedankt: 752 keer
- Recent bedankt: 2 keer
Men kan dit ook zien als een vorm van misleiding. Men geeft bronnen op maar deze blijken de inhoud niet te bevatten. De lijst van bronnen geeft dus een vals gevoel van betrouwbaarheid. Als je dat doet als student en je prof komt erachter, dan hang je.
Het blijven veredelde gokmachines. Ja, ze gokken vaak goed maar het blijft gokken. Vertrouwen op gokmachines is dus eigenlijk ook een vorm van gokken terwijl reclame voor gokken aangepakt wordt
Het blijven veredelde gokmachines. Ja, ze gokken vaak goed maar het blijft gokken. Vertrouwen op gokmachines is dus eigenlijk ook een vorm van gokken terwijl reclame voor gokken aangepakt wordt
Wil je iemand kwaad maken, vertel hem dan leugens. Wil je iemand razend maken, vertel hem dan de waarheid.
-
PeterP
- Pro Member

- Berichten: 349
- Lid geworden op: 23 nov 2014, 09:04
- Locatie: West-Vlaanderen
- Uitgedeelde bedankjes: 32 keer
- Bedankt: 45 keer
- Recent bedankt: 9 keer
Het probleem hier is niet AI op zich, maar het klakkeloos vertrouwen erop zonder verificatie.
In dit geval gaat het om een academische context, waar correcte bronvermelding en factchecking fundamenteel zijn. Of een fout citaat nu door jezelf is geschreven of door generatieve AI werd aangereikt, de verantwoordelijkheid blijft bij de spreker.
AI kan zeker een nuttige hulpmiddel zijn (samenvatten, structureren, taal), maar niet als autoriteit. In professionele, academische of journalistieke contexten blijft menselijke controle onmisbaar.
Wie dat overslaat, verlaagt niet alleen zijn eigen standaarden, maar ook die van het debat in het algemeen.
In dit geval gaat het om een academische context, waar correcte bronvermelding en factchecking fundamenteel zijn. Of een fout citaat nu door jezelf is geschreven of door generatieve AI werd aangereikt, de verantwoordelijkheid blijft bij de spreker.
AI kan zeker een nuttige hulpmiddel zijn (samenvatten, structureren, taal), maar niet als autoriteit. In professionele, academische of journalistieke contexten blijft menselijke controle onmisbaar.
Wie dat overslaat, verlaagt niet alleen zijn eigen standaarden, maar ook die van het debat in het algemeen.
-
ITnetadmin
- userbase crew

- Berichten: 9697
- Lid geworden op: 28 jan 2012, 18:22
- Uitgedeelde bedankjes: 260 keer
- Bedankt: 786 keer
- Recent bedankt: 1 keer
Je moet idd de bron ook aanklikken en checken.Dizzy schreef: 4 dagen geleden Men kan dit ook zien als een vorm van misleiding. Men geeft bronnen op maar deze blijken de inhoud niet te bevatten. De lijst van bronnen geeft dus een vals gevoel van betrouwbaarheid. Als je dat doet als student en je prof komt erachter, dan hang je.
Vaak blijken die "bronnen" dan ook maar anekdotische dingen te zijn zoals comments van users op blogs enzo.
-
Albert Peetermans
- Plus Member

- Berichten: 195
- Lid geworden op: 27 jan 2012, 12:46
- Uitgedeelde bedankjes: 23 keer
- Bedankt: 22 keer
Als ik een tekst schrijf, en ik wil (uit dikdoenerij, want dat is het) een wijs iemand citeren, dan controleer ik dat citaat omdat mijn geheugen mij wel eens in de steek laat. Ik zou niet willen verdorie dat iemand mij vraagt "waar haal je dat" en dat ik het niet kan staven. Ik vind het dus erg dat een rector van een universiteit dat niet doet.
Ik vind het nog erger dat ze deze blunder afdoet als "ik ben in de val getrapt". Wie die val dan gespannen heeft, is een raadsel.
Dat citaat zelf "Dogma is the enemy of the progress", ik zou het zelf niet durven te gebruiken of het zou in een bijzin zijn en ik zou het hoogstens mompelen, zodat niemand het hoort. Het klinkt ZO pompeus.
Ik vind het nog erger dat ze deze blunder afdoet als "ik ben in de val getrapt". Wie die val dan gespannen heeft, is een raadsel.
Dat citaat zelf "Dogma is the enemy of the progress", ik zou het zelf niet durven te gebruiken of het zou in een bijzin zijn en ik zou het hoogstens mompelen, zodat niemand het hoort. Het klinkt ZO pompeus.
- Dizzy
- Elite Poster

- Berichten: 13296
- Lid geworden op: 06 dec 2009, 13:28
- Locatie: Hier ter plaatse
- Uitgedeelde bedankjes: 646 keer
- Bedankt: 752 keer
- Recent bedankt: 2 keer
Er bestaan zeker over citaten ook heel veel foute vermeldingen. Veel citeren dus mensen met woorden die ze nooit gezegd hebben. LLM's pikken die fouten op en verspreiden ze verder.
Ik waarschuwde voorheen al dat dit zou gebeuren op grote schaal want mensen zijn te slordig/lui om alles telkens te controleren en dat geldt dus ook voor een rector. Als men alles controleert verdwijnt uiteraard al snel de tijdwinst die men wou boeken.
Zoals Einstein ooit zei, wie zijn gat verbrandt, moet op de blaren zitten
Ik waarschuwde voorheen al dat dit zou gebeuren op grote schaal want mensen zijn te slordig/lui om alles telkens te controleren en dat geldt dus ook voor een rector. Als men alles controleert verdwijnt uiteraard al snel de tijdwinst die men wou boeken.
Zoals Einstein ooit zei, wie zijn gat verbrandt, moet op de blaren zitten
Wil je iemand kwaad maken, vertel hem dan leugens. Wil je iemand razend maken, vertel hem dan de waarheid.
-
ITnetadmin
- userbase crew

- Berichten: 9697
- Lid geworden op: 28 jan 2012, 18:22
- Uitgedeelde bedankjes: 260 keer
- Bedankt: 786 keer
- Recent bedankt: 1 keer
Wat mij betreft mocht de UGent als boetedoening elke student een extra "strike" optie geven voor AI misbruik alvorens er gestraft wordt.
Dat lijkt me wel eerlijk zo.
Dat gezegd, ik vond dat Jeroen in de Afspraak een belangrijk issue over het hoofd zeg, of alleszins niet vermeld heeft:
Hij had het over LLMs die een taalmodel zijn die statistische links tussen woorden leggen, meer niet, en dat hij "ChatGPT zei het mij" gelijkstelt aan "een waarzegster zei het mij", maar ik mis een cruciale fout die we al jarenlang maken.
Namelijk dat LLMs geen "echte" AI zijn. AI in de volksmond zijn intelligente computers/netwerken die quasi bewust zijn en ook zo interageren.
En omdat dit is wat de mensen via Hollywood en scifi boeken al decennia zo ingelepeld is, hadden we de huidige modellen nooit "AI" mogen noemen.
Wat mij betreft mocht die term zo snel mogelijk geband worden voor alle huidige tech.
Dat lijkt me wel eerlijk zo.
Dat gezegd, ik vond dat Jeroen in de Afspraak een belangrijk issue over het hoofd zeg, of alleszins niet vermeld heeft:
Hij had het over LLMs die een taalmodel zijn die statistische links tussen woorden leggen, meer niet, en dat hij "ChatGPT zei het mij" gelijkstelt aan "een waarzegster zei het mij", maar ik mis een cruciale fout die we al jarenlang maken.
Namelijk dat LLMs geen "echte" AI zijn. AI in de volksmond zijn intelligente computers/netwerken die quasi bewust zijn en ook zo interageren.
En omdat dit is wat de mensen via Hollywood en scifi boeken al decennia zo ingelepeld is, hadden we de huidige modellen nooit "AI" mogen noemen.
Wat mij betreft mocht die term zo snel mogelijk geband worden voor alle huidige tech.
-
R2D2
- Elite Poster

- Berichten: 2212
- Lid geworden op: 20 aug 2015, 15:07
- Uitgedeelde bedankjes: 128 keer
- Bedankt: 208 keer
- Recent bedankt: 2 keer
Het feit dat het "artificieel" heet zegt toch al genoeg. Het is geen intelligentie, het lijkt er enkel op. Net zoals met andere artificiële dingen moet je er van uitgaan dat niet zo goed is al het origineel.
Daarnaast zie je dat de mens zeer antropomorfisch denkt. We eigenen graag menselijke eigenschappen toe aan dingen, dieren, ...
Idem met machines en software: bijvoorbeeld in de robotica gaan nu alle inspanningen naar de creatie van "humanoids", robots die op de mens gelijken. Terwijl er robots zijn die veel beter zijn in wat ze doen in een totaal andere bouw maar toch is er die fixatie op de menselijke vorm. Het lijkt een beetje op God in Genesis:
Daarnaast zie je dat de mens zeer antropomorfisch denkt. We eigenen graag menselijke eigenschappen toe aan dingen, dieren, ...
Idem met machines en software: bijvoorbeeld in de robotica gaan nu alle inspanningen naar de creatie van "humanoids", robots die op de mens gelijken. Terwijl er robots zijn die veel beter zijn in wat ze doen in een totaal andere bouw maar toch is er die fixatie op de menselijke vorm. Het lijkt een beetje op God in Genesis:
En idem met AI. Rationeel heeft de AI van Petra De Sutter een resultaat geleverd vol fouten. Maar de mens maakt daar taalkundig "Hallucinaties" van, een metafoor die overigens maar zeer beperkte gelijkenissen heeft en opnieuw een voorbeeld hoe menselijke eigenschappen toegedicht worden aan de werking van een machine.En God zeide: Laat Ons mensen maken naar ons beeld, als onze gelijkenis
- Dizzy
- Elite Poster

- Berichten: 13296
- Lid geworden op: 06 dec 2009, 13:28
- Locatie: Hier ter plaatse
- Uitgedeelde bedankjes: 646 keer
- Bedankt: 752 keer
- Recent bedankt: 2 keer
De vergelijking met een waarzegster is niet zo verkeerd want zo bekijkt de grote massa het wel, alwetende orakels. En waarom zou je zo'n alwetend orakel niet vertrouwen? Het orakel weet immers meer dan jezelf, zo gaat de redenering die niet zo onlogisch is. Koppel dat met gemakzucht en luiheid en situaties met tijdsdruk en je krijg gegarandeerd dit soort problemen.
Op al die problemen is ook al uitvoerig gewezen en zo moeilijk zijn te ook niet te ontdekken. Stel 2 keer dezelfde vraag en je krijgt een ander antwoord, merk je een fout op dan excuseert de llm zich en geeft een volgende gok met aanpassing van uw eigen input.
LLM's zijn vooral goed op het bespelen van mensen door hen naar de mond te praten en vooral de indruk te geven dat ze over alles ook alles weten terwijl ze gewoon ook maar zoeken tussen wat ze gevoed is en daar dan nog eens in gokken.
Veel redeneren ook dat het misschien niet perfect is maar wel goed genoeg. Men neemt dan de fouten voor lief want grotendeels zal het wel kloppen. Dat kan voor sommige toepassingen passeren maar voor wetenschappelijk werk of elk werd waar je serieus in wil genomen worden is dit een probleem. Het zou veel beter zijn dat de LLM's ook aangeven waar ze minder data over hebben of waarvan ze weten dat de info misschien niet 100% volledig/juist is. Door het opgeven van bronnen krijg je echter eerder het omgekeerde, men doet alsof het uit een (betrouwbare) bron komt.
Op al die problemen is ook al uitvoerig gewezen en zo moeilijk zijn te ook niet te ontdekken. Stel 2 keer dezelfde vraag en je krijgt een ander antwoord, merk je een fout op dan excuseert de llm zich en geeft een volgende gok met aanpassing van uw eigen input.
LLM's zijn vooral goed op het bespelen van mensen door hen naar de mond te praten en vooral de indruk te geven dat ze over alles ook alles weten terwijl ze gewoon ook maar zoeken tussen wat ze gevoed is en daar dan nog eens in gokken.
Veel redeneren ook dat het misschien niet perfect is maar wel goed genoeg. Men neemt dan de fouten voor lief want grotendeels zal het wel kloppen. Dat kan voor sommige toepassingen passeren maar voor wetenschappelijk werk of elk werd waar je serieus in wil genomen worden is dit een probleem. Het zou veel beter zijn dat de LLM's ook aangeven waar ze minder data over hebben of waarvan ze weten dat de info misschien niet 100% volledig/juist is. Door het opgeven van bronnen krijg je echter eerder het omgekeerde, men doet alsof het uit een (betrouwbare) bron komt.
Wil je iemand kwaad maken, vertel hem dan leugens. Wil je iemand razend maken, vertel hem dan de waarheid.
- on4bam
- Moderator

- Berichten: 7021
- Lid geworden op: 05 mei 2006, 16:05
- Locatie: 127.0.0.1 of elders
- Uitgedeelde bedankjes: 328 keer
- Bedankt: 675 keer
- Recent bedankt: 3 keer
Nee, de mens creëerde een "god" en liet haar dingen zeggen.R2D2 schreef: 2 dagen geleden En God zeide: Laat Ons mensen maken naar ons beeld, als onze gelijkenis
Het grootste probleem van LLM is dat het LLM zijn. Een uitgebreide versie van je telefoon die suggereert welk woord het volgende zal zijn. Het is getraind om woorden die dikwijls "bij elkaar staan" te combineren. In vroegere versies had je een mooi voorbeeld: "Wie is Lieven Scheire?" omdat er veel artikels waren waar Lieven en Hetty samen vermeld werden maakten LLM's er nogal vlug "Lieven Scheire is getrouwd met Hetty Helsmoortel" van. Niet omdat dat zo is natuurlijk.
De quotes uit de speech van Petra de Sutter zullen dus ook wel ergens in documenten staan waar ook Einstein in vermeld werd. Mogelijk zelfs documenten die eerder met LLMs gemaakt zijn waar de quotes ook al verkeerdelijk aan Einstein werden toegewezen.
Nu worden LLMs wel beter, ze leren vooral omdat gebruikers het er op wijzen dat de teksten niet kloppen. Ze maken daarna mogelijk minder dezelfde fout maar ondertussen maken ze er wel nieuwe.
Ik beperk het gebruik in elk geval tot het laten herschrijven van een eigen tekst en niet tot het maken van tekst from scratch.
Een hele tijd geleden heb ik een getest hoe goed je een reisschema kan maken door de bestemming, aantal dagen en interesses in te geven. Het resultaat was .. ok maar... het was een bestemming waar we al geweest waren en ons schema was al af dus konden we vergelijken wat AI er van maakte. We zouden veel tijd verloren en een aantal zaken gemist hebben mochten we zonder nadenken het AI schema gevolgd hebben.
Bye, Maurice
https://on4bam.com
https://on4bam.com
- cadsite
- userbase crew

- Berichten: 7255
- Lid geworden op: 20 jan 2015, 16:10
- Locatie: Kortrijk
- Uitgedeelde bedankjes: 355 keer
- Bedankt: 765 keer
- Recent bedankt: 4 keer
Ik doe het net omgekeerd.Ik beperk het gebruik in elk geval tot het laten herschrijven van een eigen tekst en niet tot het maken van tekst from scratch.
Als ik aan een cursus aan het schrijven ben gebruik ik AI om een basis te laten schrijven. Ik gebruik die structuur dan om er zelf een verhaal mee te maken.
Aan jouw betoog te zien ben je ook een luisteraar van de nerdland podcast, daar zeggen ze het heel goed vind ik.
"Je moet AI zien als een goede jobstudent, je kan die veel werk geven, maar je moet alles nakijken."
-
boran_blok
- Elite Poster

- Berichten: 1206
- Lid geworden op: 09 maa 2011, 16:04
- Uitgedeelde bedankjes: 17 keer
- Bedankt: 104 keer
Yep, AI output mag nooit rechtstreeks worden gebruikt.
Net zoals je vroeger niet zomaar ctrl+c en Ctrl+v van stackoverflow code deed doe je dat nu met AI ook niet.
Net zoals je vroeger niet zomaar ctrl+c en Ctrl+v van stackoverflow code deed doe je dat nu met AI ook niet.
- Dizzy
- Elite Poster

- Berichten: 13296
- Lid geworden op: 06 dec 2009, 13:28
- Locatie: Hier ter plaatse
- Uitgedeelde bedankjes: 646 keer
- Bedankt: 752 keer
- Recent bedankt: 2 keer
Met reizen moet je oppassen. Het is goed om je enkele dingen aan te reiken maar ook hier moet je alles controleren. Men geeft vluchten die niet bestaan, hotels die al jaren gesloten zijn en openingsuren die niet kloppen. Je moet het dus vrij algemeen houden EN alles controleren. Als je dat blindelings volgt zal je meer vloeken dan genieten van je reis, bovendien zal je ook een aantal zaken missen. Een handige aanvulling dus maar meer niet.
Wil je iemand kwaad maken, vertel hem dan leugens. Wil je iemand razend maken, vertel hem dan de waarheid.
-
FredericV
- Pro Member

- Berichten: 243
- Lid geworden op: 07 jun 2024, 11:51
- Uitgedeelde bedankjes: 2 keer
- Bedankt: 29 keer
- Recent bedankt: 1 keer
Het grote probleem van AI is dat we niet meer weten wat echt is. Je verwacht van de rector dat ze haar tekst fact checked. Dat doet ze niet.
Vandaag heb ik iemand van mijn FB geknikkerd, dan nog een influencer in mijn sector, die een verhaal post van een moord binnen een bedrijf in de sector (sensatie), met een nep AI generated foto van een politiestation. Dus HIVE AI Detector erop los, en dan als reactie: "100% fake". Zijn reactie was dat het verhaal echt was, maar de foto AI, en waarom dit een probleem zou zijn ....
OMG
Hoe in godsnaam zou ik dit soort mensen nog vertrouwen, en al zeker gezien:
https://news.slashdot.org/story/26/01/0 ... xperts-say
Vandaag heb ik iemand van mijn FB geknikkerd, dan nog een influencer in mijn sector, die een verhaal post van een moord binnen een bedrijf in de sector (sensatie), met een nep AI generated foto van een politiestation. Dus HIVE AI Detector erop los, en dan als reactie: "100% fake". Zijn reactie was dat het verhaal echt was, maar de foto AI, en waarom dit een probleem zou zijn ....
OMG
Hoe in godsnaam zou ik dit soort mensen nog vertrouwen, en al zeker gezien:
https://news.slashdot.org/story/26/01/0 ... xperts-say
AI gaat nu maken dat we niks meer vertrouwen."As we start to worry about AI, it will likely, at least in the short term, undermine our trust default -- that is, that we believe communication until we have some reason to disbelieve," said Jeff Hancock, founding director of the Stanford Social Media Lab. "That's going to be the big challenge, is that for a while people are really going to not trust things they see in digital spaces."
- Splitter
- Elite Poster

- Berichten: 6096
- Lid geworden op: 10 maa 2010, 12:30
- Uitgedeelde bedankjes: 69 keer
- Bedankt: 628 keer
- Recent bedankt: 5 keer
dat vind ik 1 van de minder erge zaken, als je kijkt hoeveel mensen nu blindelings 1 (biased) nieuwsbron geloven...
het is misschien best weleens tijd dat de default zou zijn "eerst verifieren, dan vetrouwen" ipv "geloven wat gezegd/gezien werd, zonder twijfel".
dat AI het quasi onmogelijk gaat maken om nog te weten WAT je kan vetrouwen, is natuurlijk een andere zaak - zoals het jaren geleden al een keer gezegd werd,
de deepfakes en co gaan zo overtuigend worden, dat je straks het probleem krijgt dat het hele rechtssysteem ondermijnd zal worden (want "innocent until proven guilty" is 1 ding, maar niet-van-echt-te-onderscheiden deepfakes maken dat dus "guilty until proven fake" straks)
het is misschien best weleens tijd dat de default zou zijn "eerst verifieren, dan vetrouwen" ipv "geloven wat gezegd/gezien werd, zonder twijfel".
dat AI het quasi onmogelijk gaat maken om nog te weten WAT je kan vetrouwen, is natuurlijk een andere zaak - zoals het jaren geleden al een keer gezegd werd,
de deepfakes en co gaan zo overtuigend worden, dat je straks het probleem krijgt dat het hele rechtssysteem ondermijnd zal worden (want "innocent until proven guilty" is 1 ding, maar niet-van-echt-te-onderscheiden deepfakes maken dat dus "guilty until proven fake" straks)
-
FredericV
- Pro Member

- Berichten: 243
- Lid geworden op: 07 jun 2024, 11:51
- Uitgedeelde bedankjes: 2 keer
- Bedankt: 29 keer
- Recent bedankt: 1 keer
@Splitter rechtbanken zullen foto's niet meer zomaar als bewijs aanvaarden, zonder andere factoren/onderbouwing/extra context.
Als ik deze site bekijk, die erg goed is in het checken van AI in plaatjes, dan wordt AI ook voor andere zaken misbruikt:
https://sightengine.com/detect-ai-generated-images
Ook bvb om de verzekering op te lichten.
Niet alleen AI kan liegen/hallucineren, maar ook mensen doen dit. Een voorbeeld is de lasterlijke aangifte. Dit scheelt dus niet veel van iemand te framen met AI nep bewijzen.
Het is dus net de context die maakt dat je dit soort onzin kan debunken.
Als ik deze site bekijk, die erg goed is in het checken van AI in plaatjes, dan wordt AI ook voor andere zaken misbruikt:
https://sightengine.com/detect-ai-generated-images
Ook bvb om de verzekering op te lichten.
Niet alleen AI kan liegen/hallucineren, maar ook mensen doen dit. Een voorbeeld is de lasterlijke aangifte. Dit scheelt dus niet veel van iemand te framen met AI nep bewijzen.
Het is dus net de context die maakt dat je dit soort onzin kan debunken.
- Dizzy
- Elite Poster

- Berichten: 13296
- Lid geworden op: 06 dec 2009, 13:28
- Locatie: Hier ter plaatse
- Uitgedeelde bedankjes: 646 keer
- Bedankt: 752 keer
- Recent bedankt: 2 keer
Dat is inderdaad een probleem waar al op gewezen is. Voordien kon men uitgaan van wat men met eigen ogen gezien had waar was, dat is voorbij. Nu moet je zaken gaan scannen en laten natrekken want je eigen ogen kan je niet meer vertrouwen. En dat gaat verder dan een beeld dat gewoon onduidelijk is vanuit een bepaald standpunt, nu kan men zelf standpunten bijmaken of aanpassen en dus het beeld genereren dat bewijst wat men wil bewijzen.
Je ziet dat nu al bij die zaak van die door ICE neergeschoten vrouw in de VS. Men heeft een video maar er duiken al snel andere video's op die andere zaken menen aan te tonen. Het zelfde met die grok-beelden van mensen die uitgekleed worden. Musk heeft het nu aangepast, je kan nog altijd mensen uitkleden... als je maar betaalt.
Je ziet dat nu al bij die zaak van die door ICE neergeschoten vrouw in de VS. Men heeft een video maar er duiken al snel andere video's op die andere zaken menen aan te tonen. Het zelfde met die grok-beelden van mensen die uitgekleed worden. Musk heeft het nu aangepast, je kan nog altijd mensen uitkleden... als je maar betaalt.
Wil je iemand kwaad maken, vertel hem dan leugens. Wil je iemand razend maken, vertel hem dan de waarheid.

