Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Alt gir mening.
Google + Anthropic fokuserer på forhåndstrening, så du får et godt svar raskere, men kapasitetstaket er lavere.
OpenAI fokuserte på ettertrening, så gode svar tar lengre tid, men du kan presse modellene mye lenger.
For å være tydelig (får mange forvirrende kommentarer), mener jeg åpenbart ikke at noen av disse selskapene kun fokuserer på én ting.
OAI/Anthropic/Google fokuserer alle på både pre-training og post-training (selvfølgelig finnes det stadier innenfor disse, bare forenklet her).
Men det føles som OAI gjorde en bedre jobb med etteropplæring, mens Google/Anthropic gjorde en bedre jobb med fortrening. De er alle sammenkoblet (bedre pre-training gjør post-training lettere/øker taket for post-training, for eksempel).
Dette kommer til uttrykk i hvordan modellene føles å jobbe med i det daglige.
102,88K
Topp
Rangering
Favoritter
