ChatGPT opfører sig underligt - det er nok vores skyld

UWUKKU534FMKTLTF4QA4C6GECY
ChatGPT har opført sig underligt i de seneste måneder. Brugere har klaget over, at chatbotten er blevet mere og mere doven og endda lidt flabet, og OpenAI har anerkendt problemet og rullet en løsning ud i januar.

Det uigennemsigtige i AI-modellen, der understøtter ChatGPT, gør det svært at sige, hvad der er galt med chatbotten - men en forsker mener, at det er den enorme mængde data, der er taget fra brugerinteraktioner med chatbotten, der får den til at ændre sig på uforudsigelige måder. 

"En model som GPT4 er ikke en enkelt model. Det er et læringssystem, der faktisk ændrer sig meget hurtigt over tid," fortalte James Zou, en professor og AI-forsker ved Stanford University, til Business Insider. 

"En stor grund til, at systemerne udvikler sig over tid, er, at de konstant får feedbackdata fra millioner af brugere. Jeg tror, det er en stor kilde til potentielle ændringer i modellen," tilføjede han. AI-modeller som GPT-4 bliver konstant justeret og opdateret, og OpenAI baserer sig på interaktioner med brugere for at træne ChatGPT til at blive mere samtalevenlig og nyttig. 

Det fungerer gennem en proces kaldet forstærket læring fra menneskelig feedback, hvor AI-modellen lærer, hvilke svar der er mere favorable for brugerne, og justerer derefter. I de seneste måneder har brugere af chatbotten, som angiveligt nu har omkring 1,7 milliarder brugere, klaget over, at den er begyndt at opføre sig mærkeligt. Nogle har postet på X, at ChatGPT nægtede at fuldføre nogle opgaver og gav kortere svar end forventet, med en udvikler, der endda foreslog, at AI-modellen tog en velfortjent vinterferie. 

OpenAI anerkendte problemet og har rullet en løsning ud, med CEO Sam Altman, der siger, at ChatGPT nu skulle være "meget mindre doven." AI-eksperter siger ofte, at modeller som GPT-4 i det væsentlige er sorte bokse, med selv deres udviklere ude af stand til fuldt ud at forklare, hvorfor de tager nogle beslutninger eller reagerer på bestemte måder. Som et resultat har de en tendens til at vise uventet og ofte direkte underlig opførsel - som nogle brugere for nylig opdagede, da de indsete, at ChatGPT ville give længere svar, hvis de lovede at give den et tip på $200. 

Ifølge Zou skyldes nogle af disse særheder sandsynligvis menneskelig bias arvet fra de enorme mængder online data, chatbotten er trænet på. "Disse store modeller er ofte trænet på internetskala data, en enorm korpus af tekst bestående af millioner af hjemmesider og online diskussioner," sagde han. "Så der er en masse forskellige menneskelige adfærd og menneskelige fordomme i træningsdatasættet, der også afspejles i sprogmodellerne," tilføjede han. Zou sagde, at en anden grund til ændringer i GPT-4's opførsel kunne være OpenAI's forsøg på at tilføje yderligere beskyttelser til modellen for at forhindre misbrug, hvilket han argumenterede for, at det utilsigtet kunne skade ChatGPT's præstation. 

Han pegede på eksperimenter, som hans team på Stanford har kørt på open-source AI-modeller, som viste, at finjustering af disse modeller for at gøre dem sikrere også gjorde dem mindre villige til at give svar på visse spørgsmål. "OpenAI har besluttet, at deres værdier er relateret til uskadelighed, hjælpsomhed og ærlighed, og det er de områder, de prioriterer," sagde Zou. "Det kan føre til nogle konkurrerende mål. Hvis du gør modellen meget uskadelig, gør det måske også modellen mindre kreativ eller mindre nyttig for nogle af brugerne," tilføjede han. "Jeg tror, det kan også være en del af grunden til, at vi ser potentielle afvigelser eller ændringer i modellens opførsel." 


Læs også

Nvidia præsenterer AI-chatbot til PC'er

Apple klar med AI senere på året


Vores partnere