Zo herken je nepvideo's (voor je ze doorstuurt)
OOK: AI heeft 'emoties', techgiganten vs. Chinese kopieerders en waarom AI-projecten mislukken
Slimmer werken om leuker te leven. Elke week jouw 3-minuten boost met slimme tips & AI.
Tom Hanks verkoopt ineens tandartsverzekeringen. Jort Kelder geeft beleggingstips die hij nooit heeft ingesproken. En jij zit op de bank en denkt: wacht, is dit echt?
Die twijfel hebben we inmiddels allemaal. Een half jaar geleden kon je AI nog herkennen aan zes vingers of ogen die twee kanten op keken. Die tijd is voorbij. Bijna acht op de tien Nederlanders zegt dat het steeds lastiger wordt om nep en echt te onderscheiden.
⚡️ The Shortcut: scherp je bullshitradar aan
En dan helpt je brein ook nog eens niet mee. Als iets past bij wat we verwachten of graag willen geloven, zet je kritische radar zichzelf een tandje lager. Schokkend nieuws? Doorsturen. Te mooie deal? Klikken. Zo werkt het. Voor je het weet heb je het filmpje al doorgestuurd naar drie vrienden.
Maar je kunt jezelf trainen om even te pauzeren. Dit zijn mijn vier checks:
1. Ziet het eruit als een filmposter?
Echte nieuwsbeelden zijn vaak flets, rommelig en een beetje lelijk. AI maakt juist perfect: dramatisch licht, symmetrisch, filmisch. Als een video eruitziet alsof Netflix hem heeft geregisseerd, terwijl het zogenaamd breaking news is? Sceptisch worden.
2. Let op het gezicht als iemand beweegt.
Zodra een hoofd draait, heeft AI het nog steeds lastig. Kaaklijn die verspringt. Een oor dat ineens vervaagt. Haar dat raar meebeweegt als een soort helm. Randen die niet kloppen: dat is je signaal.
3. Kijk voorbij het gezicht.
De echte verraders zitten vaak in de achtergrond. Tekst op kleding die nergens op slaat. Sieraden die halverwege verdwijnen. Schaduwen die de verkeerde kant op vallen. AI focust op het gezicht, de rest vergeet die soms.
4. Check de bron.
Wie deelt dit? Komt het van een serieus medium? Of van een anoniem account met drie volgers en een wolf als profielfoto? Die ene vraag scheelt vaak al een hoop.
Twijfel je nog steeds? Doe bijvoorbeeld een omgekeerde beeldzoektocht via Google Afbeeldingen (tik op het camera-icoontje in de zoekbalk). Dan zie je waar het beeld eerder is verschenen.
Reality check
Er bestaan tools die inschatten of iets door AI is gemaakt. Maar die zijn niet waterdicht. Soms scoren echte foto’s als “waarschijnlijk AI” en andersom. Zie het als extra hulpmiddel, niet als bewijs. Je onderbuikgevoel plus even pauzeren blijft voorlopig je beste verdediging.
En de simpelste tip is misschien wel de beste: stuur het niet meteen door. Even ademen. Verkoopt een bekend persoon ineens iets willekeurigs? Geef het tien seconden. Dat is alles.
🗞️ Nieuws van de week
Anthropic ontdekt 'emoties' in Claude
Onderzoekers van Anthropic vonden 171 emotieachtige patronen in het brein van AI-model Claude. Geen echte gevoelens, maar interne signalen die wel invloed hebben op hoe het model reageert. Wanneer Claude onder druk staat, wordt een "wanhoop"-patroon actiever, wat leidt tot slordiger oplossingen.
Bron: Anthropic
OpenAI, Anthropic en Google werken samen tegen Chinese kopieerders
De drie grootste AI-bedrijven delen voor het eerst onderling informatie om te voorkomen dat Chinese concurrenten hun modellen namaken via miljoenen nepprompts. Eerder ontdekte Anthropic al 24.000 nepaccounts die door Chinese AI-bedrijven werden gebruikt.
Bron: Bloomberg
Slechts 28% van AI-projecten in bedrijven levert op
Uit nieuw onderzoek van Gartner blijkt dat maar 28% van alle AI-projecten echt resultaat oplevert. Eén op de vijf mislukt volledig. De belangrijkste les: AI werkt pas als je het inbouwt in bestaande werkprocessen, niet als losstaand experiment.
Bron: Gartner
Tot volgende week!
Liefs, Sanne
Meer weten?
→ Sanne op LinkedIn en Instagram
→ theshortcut.nl voor lezingen en workshops
→ sannecornelissen.nl
