Toen Microsoft deze maand een chatbot aan zijn Bing-zoekmachine toevoegde, merkten mensen dat deze allerlei valse informatie verstrekte over Gap, het Mexicaanse nachtleven en zanger Billie Eilish.
Toen journalisten en andere vroege testers lange gesprekken voerden met de kunstmatige-intelligentie-bot van Microsoft, verviel deze in alarmerend nors en gemeen gedrag.
In de dagen sinds het gedrag van de Bing-bot een wereldwijde sensatie werd, hebben mensen moeite gehad om de vreemdheid van deze nieuwe creatie te begrijpen. Te vaak hebben wetenschappers gezegd dat mensen veel van de schuld verdienen.
Maar er is nog steeds een beetje een mysterie over wat de nieuwe chatbot kan doen – en waarom hij het zal doen. De complexiteit ervan maakt het moeilijk te ontleden en zelfs te voorspellen, en onderzoekers bekijken het door een filosofische lens en door de harde code van de informatica.
Net als elke andere student kan een AI-systeem slechte informatie leren van slechte bronnen. Is dit vreemd gedrag? Het kan de vervormde weerspiegeling zijn van een chatbot van de woorden en bedoelingen van de mensen die hem gebruiken, zei Terry Sejnowski, een neurowetenschapper, psycholoog en computerwetenschapper die hielp bij het leggen van de intellectuele en technische basis voor moderne kunstmatige intelligentie.
Dit gebeurt wanneer je diep in deze systemen gaat. Onderzoeksdocument over dit fenomeen Deze maand in het wetenschappelijke tijdschrift Neural Computation. “Wat je ook zoekt – wat je maar wilt – ze zullen het bieden.”
Google ook Opschepper nieuwe chatbot, Bard, deze maand, maar wetenschappers en journalisten beseften al snel dat hij onzin aan het schrijven was over de James Webb Space Telescope. OpenAI, een startup uit San Francisco, zette in november de opkomst van chatbots in gang met de introductie van ChatGPT, wat niet altijd de waarheid vertelt.
De nieuwe chatbots worden aangedreven door een technologiewetenschapper die een Large Language Model of LLM wordt genoemd.Deze systemen leren door enorme hoeveelheden digitale tekst van internet te analyseren, waaronder veel in diskrediet gebracht, bevooroordeeld en ander giftig materiaal. Ook is het script waarvan chatbots leren een beetje achterhaald, omdat ze het maandenlang moeten analyseren voordat het publiek het kan gebruiken.
Terwijl het deze zee van goede en slechte informatie online analyseert, leert de LLM één ding: het volgende woord in een reeks woorden raden.
Het werkt als een gigantische versie van de autocomplete-technologie die het volgende woord suggereert terwijl je een e-mail of expresbericht op je smartphone typt. Kijkend naar de reeks ‘Tom Cruise is ____’, zou je ‘acteur’ kunnen raden.
Als je met een chatbot chat, vertrouwt de bot niet alleen op alles wat hij van internet heeft geleerd. Hij vertrouwt op alles wat je tegen hem zei en alles wat hij terug zei. Het gaat niet alleen om het raden van het volgende woord in een zin. Het is het raden van het volgende woord in het lange stuk tekst dat zowel jouw woorden als die van haar bevat.
Hoe langer het gesprek duurt, hoe meer de gebruiker onbedoeld zal beïnvloeden wat de chatbot zegt. Als je wilt dat hij boos wordt, wordt hij boos, zei dr. Sejnowski. Als je het overhaalt om griezelig te zijn, wordt het griezelig.
De alarmerende reactie op het bizarre gedrag van de chatbot van Microsoft heeft een belangrijk punt overschaduwd: de chatbot heeft geen persoonlijkheid. Het levert direct resultaat via een ongelooflijk complex computeralgoritme.
Microsoft lijkt te bezuinigen op het vreemdste gedrag door een limiet te stellen aan de lengte van discussies met zijn Bing-chatbot. Het was alsof je van een coureur van een testauto leerde dat als je te lang te snel gaat, de motor zou doorbranden. Microsoft-partner OpenAI en Google onderzoeken ook manieren om het gedrag van hun bots te controleren.
Maar er is een voorbehoud bij deze geruststelling: omdat chatbots van zoveel materiaal leren en het op zo’n complexe manier samenstellen, is het onderzoekers niet helemaal duidelijk hoe chatbots hun uiteindelijke resultaten produceren. Onderzoekers kijken wat bots doen en leren grenzen te stellen aan dat gedrag, vaak nadat het is gebeurd.
Microsoft en OpenAI besloten dat de enige manier waarop ze erachter konden komen wat chatbots in de echte wereld zouden doen, was door ze te laten verdwalen – en ze terug te trekken als ze wegliepen. Ze denken dat hun grote openbare experiment het risico waard is.
Dr. Sejnowski vergeleek het gedrag van de chatbot van Microsoft met de Mirror of Erised, een mysterieus artefact in de Harry Potter-romans van J.K. Rowling en de vele films die gebaseerd zijn op de creatieve wereld van jonge tovenaars.
“Maverick” is “verlangen” achterstevoren gespeld. Wanneer mensen de spiegel ontdekken, lijkt het waarheid en begrip te bieden. Maar dat doet ze niet. Het toont de diepgewortelde verlangens van iedereen die ernaar staart. En sommige mensen worden gek als ze te lang staren.
“Omdat de mens en de LLM elkaar beide spiegelen, zullen ze na verloop van tijd neigen naar een gemeenschappelijke conceptuele toestand”, zei Dr. Sejnowski.
Het was niet verrassend, zei hij, dat journalisten griezelig gedrag begonnen te zien in de Bing-chatbot. Bewust of onbewust duwden ze het systeem in een ongemakkelijke richting. Als chatbots onze woorden opnemen en op ons reflecteren, kunnen ze onze overtuigingen versterken en versterken en ons overtuigen om te geloven wat ze ons vertellen.
Dr. Sejnowski behoorde eind jaren zeventig en begin jaren tachtig tot een kleine groep onderzoekers die serieus begonnen met het onderzoeken van een type kunstmatige intelligentie, een neuraal netwerk genaamd, dat de drijvende kracht is achter de huidige chatbots.
Een neuraal netwerk is een wiskundig systeem dat vaardigheden leert door numerieke gegevens te analyseren. Dit is dezelfde technologie waarmee Siri en Alexa kunnen herkennen wat je zegt.
Rond 2018 begonnen onderzoekers van bedrijven als Google en OpenAI neurale netwerken te bouwen die leerden van enorme hoeveelheden digitale tekst, waaronder boeken, Wikipedia-artikelen, chatlogboeken en andere online geposte dingen. Door miljarden patronen in al die tekst te identificeren, hebben LLM’s geleerd om zelf tekst te maken, inclusief tweets, blogposts, toespraken en computerprogramma’s. Ze kunnen zelfs een gesprek voeren.
Deze systemen zijn een weerspiegeling van de mensheid. Ze leren hun vaardigheden door tekst te analyseren die door mensen op internet is geplaatst.
Dat is niet de enige reden waarom chatbots problematisch taalgebruik genereren, zegt Melanie Mitchell, een AI-onderzoeker aan het Santa Fe Institute, een onafhankelijk laboratorium in New Mexico.
Bij het maken van tekst herhalen deze systemen niet woord voor woord wat er op internet staat. Ze genereren zelf nieuwe tekst door miljarden stijlen te combineren.
Zelfs als onderzoekers deze systemen alleen zouden trainen op basis van door vakgenoten beoordeelde wetenschappelijke literatuur, zouden ze nog steeds uitspraken kunnen doen die wetenschappelijk absurd zijn. Zelfs als ze alleen uit de tekst hebben geleerd dat het waar is, kunnen ze nog steeds onwaarheden produceren. Zelfs als ze alleen leren van de gezonde tekst, kunnen ze nog steeds iets griezeligs bedenken.
“Er is niets dat hen tegenhoudt om dat te doen,” zei Dr. Mitchell. “Ze proberen gewoon iets te produceren dat klinkt als menselijke taal.”
AI-experts weten al lang dat deze technologie allerlei onverwacht gedrag vertoont. Maar ze zijn het niet altijd eens over hoe ze dit gedrag moeten verklaren of hoe snel chatbots kunnen verbeteren.
Omdat deze systemen van zoveel meer gegevens leren dan wij mensen kunnen begrijpen, kunnen zelfs AI-experts niet begrijpen waarom ze op een bepaald moment een specifiek stuk tekst genereren.
Dr. Czejkowski zei dat hij gelooft dat nieuwe chatbots op de lange termijn het potentieel hebben om mensen efficiënter te maken en manieren te bieden om hun werk beter en sneller te doen. Maar dit brengt een voorbehoud met zich mee voor zowel de bedrijven die deze chatbots bouwen als de mensen die ze gebruiken: ze kunnen ons ook verder van de waarheid en naar duistere plekken leiden.
“Dit is onbekend terrein”, zei dr. Czejkowski. “Mensen hebben dit nog nooit eerder meegemaakt.”
More Stories
Apple kondigt uitbreiding van Vision Pro naar nog twee landen aan
Hoe u de Apple Gehoortest doet met AirPods Pro 2
Apple kondigt MacBook Pro-modellen aan met M4 Pro- en M4 Max-chips, Thunderbolt 5-ondersteuning en meer