Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Tudo faz sentido.
O Google + Anthropic focaram no pré-treinamento, então você chega a uma ótima resposta mais rapidamente, mas o teto de capacidade é mais baixo.
A OpenAI focou no pós-treinamento, então ótimas respostas demoram mais, mas você pode levar os modelos muito mais longe.
Para ser claro (recebendo muitos comentários confusos), eu obviamente não quero dizer que nenhuma dessas empresas está focada apenas em uma coisa.
OAI/Anthropic/Google focam tanto no pré-treinamento quanto no pós-treinamento (obviamente há estágios dentro disso, apenas simplificando aqui).
Mas parece que a OAI fez um trabalho melhor no pós-treinamento, enquanto a Google/Anthropic fez um trabalho melhor no pré-treinamento. Eles estão todos interligados (um melhor pré-treinamento torna o pós-treinamento mais fácil/aumenta o teto para o pós-treinamento, por exemplo).
Isso se manifesta em como os modelos parecem trabalhar no dia a dia.
102,87K
Top
Classificação
Favoritos
