Google zei donderdag dat het zijn tool voor het maken van afbeeldingen van Gemini-chatbots tijdelijk zou stopzetten nadat het veel kritiek kreeg vanwege het maken van ‘diverse’ afbeeldingen die historisch of feitelijk niet accuraat waren – zoals zwarte Vikingen, pausen en indianen onder de Founding Fathers.
Gebruikers van sociale media noemden Gemini 'belachelijk wakker' en 'onbruikbaar' nadat verzoeken om representatieve afbeeldingen van onderwerpen te maken resulteerden in vreemde geretoucheerde afbeeldingen.
“We werken al aan het oplossen van recente problemen met de functie voor het maken van foto's van Gemini”, zei Google in een verklaring op X. “Terwijl we dit doen, zullen we het maken van afbeeldingen voor mensen onderbreken en binnenkort een verbeterde versie opnieuw uitbrengen.”
Voorbeelden hiervan zijn onder meer een AI-afbeelding van een zwarte man die George Washington lijkt te vertegenwoordigen, met een witte pruik en een uniform van het Continentale Leger, en een Zuidoost-Aziatische vrouw die een pauselijke kledij draagt, ook al zijn alle 266 pausen door de geschiedenis heen blanke mannen geweest.
In een ander schokkend voorbeeld Gedetecteerd door de randGemini produceerde zelfs ‘diverse’ afbeeldingen van Duitse soldaten uit het nazi-tijdperk, waaronder een Aziatische vrouw en een zwarte man in uniform in 1943.
Omdat Google de parameters die het gedrag van de Gemini-chatbot bepalen niet heeft gepubliceerd, is het moeilijk om een duidelijke verklaring te krijgen waarom het programma verschillende versies van historische figuren en gebeurtenissen bedenkt.
William A. zei: “In naam van het bestrijden van vooroordelen worden feitelijke vooroordelen in de systemen ingebouwd”, vertelde Jacobson, hoogleraar rechten aan de Cornell University en oprichter van het Equal Protection Project, een waakhondgroep, aan The Washington Post.
“Dit is niet alleen een zorg voor de onderzoeksresultaten, maar ook voor toepassingen in de echte wereld waarbij het testen van een ‘vooroordeelvrij’ algoritme feitelijk vooroordelen in het systeem inbouwt door zich te richten op eindresultaten die de quota bereiken.”
Het probleem kan te wijten zijn aan het ‘trainingsproces’ van Google over het ‘grote taalmodel’ dat de afbeeldingentool van Gemini aanstuurt, aldus Fabio Motoki, docent aan de Universiteit van East Anglia in Groot-Brittannië, die vorig jaar co-auteur was van een artikel waarin werd gevonden een oplossing. Merkbare linksvooroordeel in ChatGPT.
“Onthoud dat versterkend leren van menselijke feedback (RLHF) gaat over mensen die het model vertellen wat beter en wat slechter is, en daarmee effectief de ‘beloningsfunctie’ vormgeven – technisch gezien de verliesfunctie,” vertelde Motoki aan The Post.
“Afhankelijk van wie Google recruteert of welke instructies Google hen geeft, kan dit tot dit probleem leiden.”
Dit was een grote misstap voor de zoekgigant, die eerder deze maand zijn vlaggenschip-chatbot van Bard een nieuwe naam gaf en veelgeprezen nieuwe functies introduceerde, waaronder het maken van afbeeldingen.
De blunder kwam ook dagen nadat OpenAI, de drijvende kracht achter het populaire ChatGPT, een nieuwe AI-tool introduceerde genaamd Sora, die video's maakt op basis van tekstprompts van gebruikers.
Google had eerder toegegeven dat het foutieve gedrag van de chatbot verholpen moest worden.
“We verbeteren dit soort afbeeldingen onmiddellijk”, vertelde Jack Krawczyk, senior director productmanagement voor Gemini-ervaringen van Google, aan The Post.
“De AI-beeldgeneratie van Gemini genereert voor een breed scala aan mensen. Dit is over het algemeen een goede zaak omdat mensen over de hele wereld het gebruiken. Maar hier schiet het de plank mis.”
De post heeft contact opgenomen met Google voor verder commentaar.
Toen The Washington Post hem vroeg om zijn vertrouwens- en veiligheidsrichtlijnen te verstrekken, erkende Gemini dat deze niet “openbaar waren gemaakt vanwege technische complexiteit en overwegingen op het gebied van intellectueel eigendom.”
De chatbot erkende in zijn reacties op de beweringen ook dat hij zich bewust was van “kritiek dat Gemini mogelijk prioriteit heeft gegeven aan gedwongen diversiteit bij het genereren van afbeeldingen, wat heeft geleid tot historisch onnauwkeurige afbeeldingen.”
“De algoritmen achter de modellen voor het genereren van afbeeldingen zijn complex en nog in ontwikkeling”, aldus Gemini. “Ze kunnen moeite hebben met het begrijpen van de nuances van de historische context en culturele representatie, wat leidt tot onnauwkeurige resultaten.”
“Hipster-Friendly Explorer. Award-Winning Coffee Fanatic. Analyst. Problem Solver. Troublemaker.”
More Stories
Apple kondigt uitbreiding van Vision Pro naar nog twee landen aan
Hoe u de Apple Gehoortest doet met AirPods Pro 2
Apple kondigt MacBook Pro-modellen aan met M4 Pro- en M4 Max-chips, Thunderbolt 5-ondersteuning en meer