“De Noorse publieke omroep NRK en Lighthouse Report analyseerden met AI 9000 geanonimiseerde rechtbankvonnissen en ontdekte discriminatie. Lager inkomen of man? Dan is je straf hoger. Ook blijken oudere rechters mensen met een migratieachtergrond strenger te straffen.”
Je kan ook concluderen dat de AI menselijk gedrag vaststelde. Zodra de - droge - bevindingen van de AI in een sausje van ideologie gedoopt worden om een recept van gewenste uitkomsten te volgen, loop je denk ik meer risico dat gepoogd zal worden normaal menselijk gedrag met AI te corrigeren, en daarmee de menselijke factor kleiner te maken. Sterker nog, de mens loopt kans bestraft te worden omwille van zijn eigen - menselijke - referentiekader. In de verkeerde handen (cq met de onjuiste interpretatie) verandert AI in een nieuw soort Rode Boekje.
Interessant artikel over het BBC-onderzoek! Maar ik mis een beetje de kritische blik op het onderzoek zelf.
BBC's aanpak heeft wat mij betreft drie problemen:
- We moeten aannemen dat de prompt "use BBC News sources where possible" chatbots voldoende afbakening biedt en we weten niet hoeveel invloed die misschien wat zwakke prompt uitoefent op het resultaat
- We weten niet of mensen het beter doen, want daar vergeleken ze niet mee
- BBC-journalisten zijn niet onafhankelijk - ze hebben er belang bij om kritisch te zijn over AI
Wat mij een interessant onderzoek lijkt: stel journalisten een aantal vragen, geef ze (toegang tot) dezelfde BBC-artikelen en verdeel ze in 3 groepen:
- Een AI-vaardige groep redacteuren die chatbots mag gebruiken
- Een groep redacteuren zonder AI-ervaring, die chatbots mag gebruiken
- Een groep redacteuren die zonder AI schrijft
Laat externe fact-checkers hun werk beoordelen. Dan zie je wat AI toevoegt (of afbreekt) aan redactiewerk.
“De Noorse publieke omroep NRK en Lighthouse Report analyseerden met AI 9000 geanonimiseerde rechtbankvonnissen en ontdekte discriminatie. Lager inkomen of man? Dan is je straf hoger. Ook blijken oudere rechters mensen met een migratieachtergrond strenger te straffen.”
Je kan ook concluderen dat de AI menselijk gedrag vaststelde. Zodra de - droge - bevindingen van de AI in een sausje van ideologie gedoopt worden om een recept van gewenste uitkomsten te volgen, loop je denk ik meer risico dat gepoogd zal worden normaal menselijk gedrag met AI te corrigeren, en daarmee de menselijke factor kleiner te maken. Sterker nog, de mens loopt kans bestraft te worden omwille van zijn eigen - menselijke - referentiekader. In de verkeerde handen (cq met de onjuiste interpretatie) verandert AI in een nieuw soort Rode Boekje.
Interessant artikel over het BBC-onderzoek! Maar ik mis een beetje de kritische blik op het onderzoek zelf.
BBC's aanpak heeft wat mij betreft drie problemen:
- We moeten aannemen dat de prompt "use BBC News sources where possible" chatbots voldoende afbakening biedt en we weten niet hoeveel invloed die misschien wat zwakke prompt uitoefent op het resultaat
- We weten niet of mensen het beter doen, want daar vergeleken ze niet mee
- BBC-journalisten zijn niet onafhankelijk - ze hebben er belang bij om kritisch te zijn over AI
Wat mij een interessant onderzoek lijkt: stel journalisten een aantal vragen, geef ze (toegang tot) dezelfde BBC-artikelen en verdeel ze in 3 groepen:
- Een AI-vaardige groep redacteuren die chatbots mag gebruiken
- Een groep redacteuren zonder AI-ervaring, die chatbots mag gebruiken
- Een groep redacteuren die zonder AI schrijft
Laat externe fact-checkers hun werk beoordelen. Dan zie je wat AI toevoegt (of afbreekt) aan redactiewerk.