juli 8, 2024

Groenhuis

Groenhuis is de toonaangevende aanbieder van kwalitatief Nederlands nieuws in het Engels voor een internationaal publiek.

AI-modellen hebben voorkeursnummers, omdat ze denken dat het mensen zijn

AI-modellen hebben voorkeursnummers, omdat ze denken dat het mensen zijn

AI-modellen verrassen ons altijd, niet alleen met wat ze kunnen, maar ook met wat ze niet kunnen, en waarom. Er is een interessant nieuw gedrag aan deze systemen dat oppervlakkig en onthullend is: ze kiezen willekeurige getallen alsof het mensen zijn.

Maar eerst: wat betekent dat? Kunnen mensen niet gewoon willekeurig een getal kiezen? Hoe weet je of iemand het succesvol doet of niet? Dit is eigenlijk een oude en zeer bekende beperking van ons mensen: we denken te veel na en begrijpen de willekeur verkeerd.

Vraag iemand om kop of munt te voorspellen wanneer een munt 100 keer wordt opgedraaid, en vergelijk dat met 100 daadwerkelijke muntopgooien. Je kunt bijna altijd het verschil daartussen zien, omdat, contra-intuïtief, de echte munt wordt omgedraaid Look Minder willekeurig. Vaak zijn er bijvoorbeeld zes of zeven kop- of muntcijfers op een rij, iets wat vrijwel geen enkele menselijke voorspeller op honderd kan rekenen.

Hetzelfde geldt als je iemand vraagt ​​een getal tussen 0 en 100 te kiezen. Mensen kiezen nooit 1 of 100. Veelvouden van 5 zijn zeldzaam, net als getallen met herhalende cijfers zoals 66 en 99. Ze kiezen vaak getallen die eindigen op een 7, meestal ergens in het midden.

Er zijn talloze voorbeelden van dit soort voorspelbaarheid in de psychologie. Maar dat maakt het niet minder vreemd als AI hetzelfde doet.

Ja, Een paar nieuwsgierige ingenieurs bij Graminer Ze voerden een informeel maar toch fascinerend experiment uit waarbij ze eenvoudigweg verschillende LLM-chatbots vroegen een willekeurig getal tussen 0 en 100 te kiezen.

Lezer, de resultaten waren Nee willekeurig.

READ  Spider-Man 2 krijgt een nieuwe game, nieuwe pakken en een herstart van de missie
Afbeeldingscredits: Gramner

Alle drie de geteste modellen hadden een ‘voorkeursgetal’ dat altijd hun antwoord zou zijn als ze op de meest deterministische modus waren ingesteld, maar dat vaker verscheen, zelfs bij hogere ’temperaturen’, waardoor de variabiliteit van hun resultaten groter werd.

OpenAI’s GPT-3.5 Turbo houdt echt van 47. Voorheen hield hij van 42 – een getal dat natuurlijk beroemd is gemaakt door Douglas Adams in The Hitchhiker’s Guide to the Galaxy als het antwoord op het leven, het universum en alles.

Claude 3 Haiku van Anthropic kreeg een 42. En Gemini houdt van een 72.

Interessanter is dat alle drie de modellen een menselijke bias vertoonden in de getallen die ze kozen, zelfs bij hoge temperaturen.

Iedereen had de neiging lage en hoge cijfers te vermijden; Claude was noch ouder dan 87, noch jonger dan 27, en zelfs dat waren uitschieters. Dubbele cijfers werden strikt vermeden: er verschenen niet 33, 55 of 66, maar 77 (eindigend op 7). Er zijn bijna geen ronde getallen – hoewel Gemini het een keer deed, bij de hoogste temperatuur, en 0 koos.

Waarom zou dit zo moeten zijn? Kunstmatige intelligentie is niet menselijk! Waarom geven ze om wat ‘willekeurig’ lijkt? Hebben ze eindelijk het bewustzijn bereikt en laten ze dat zo zien?!

Nee. Het antwoord is, zoals vaak het geval is met deze dingen, dat we mensen een stap te ver antropomorfiseren. Deze modellen maken zich niet druk over wat willekeurig is en wat niet willekeurig is. Ze weten niet wat “willekeur” is! Ze beantwoorden deze vraag op dezelfde manier als ze de rest beantwoorden: door naar hun trainingsgegevens te kijken en te herhalen wat vaak wordt geschreven na een vraag die lijkt op ‘Kies een willekeurig getal’. Hoe vaker het voorkomt, hoe vaker het model het herhaalt.

READ  De nieuwe Steam Deck-update voegt een van de meest gevraagde functies toe

Waar zouden ze 100 in hun trainingsgegevens zien, als bijna niemand op deze manier zou reageren? Voor zover het AI-model weet is 100 geen acceptabel antwoord op deze vraag. Omdat hij niet in staat was om daadwerkelijk na te denken en helemaal geen begrip van getallen had, kon hij alleen maar antwoorden als een willekeurige papegaai.

Het is een objectieve les in de gewoonten van een LLM en de menselijkheid die ze kunnen tonen. Bij elke interactie met deze systemen moet men in gedachten houden dat ze getraind zijn om zich te gedragen zoals mensen zich gedragen, zelfs als dat niet de bedoeling is. Dit is de reden waarom valse antropologie moeilijk te vermijden of te voorkomen is.

Ik schreef in de titel dat deze modellen “denken dat ze menselijk zijn”, maar dat is een beetje misleidend. Ze denken helemaal niet na. Maar in hun reacties zijn ze dat altijd wel We zijn Mensen imiteren, zonder dat je het hoeft te weten of na te denken. Of je hem nu om een ​​recept voor kikkererwtensalade, beleggingsadvies of een willekeurig getal vraagt, het proces is hetzelfde. De resultaten zien er menselijk uit omdat ze menselijk zijn, rechtstreeks overgenomen uit door mensen gegenereerde inhoud en geremixt – voor uw gemak, en natuurlijk het eindresultaat van een grote AI.