Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

korini
.@Lombard_Finance zrób to ‘hae-jja’
Oni są pewni siebie
Już zrobili tge i ciągle to udowadniają
Ambasadorzy i twórcy prowadzą sezon 2
Patrząc tylko na cenę $BARD, różni się od dzisiejszych powszechnych projektów kradzieży
To również BTCfi, które ma dużą szansę na dalszy rozwój..
—
Jednak jedną barierą wejścia jest próg
Ja też jestem na Widerze..
Mimo to, trzeba to zrobić
Zajmowanie się takimi podstawami może czasami przynieść większy zysk niż szukanie szybkiego zysku
Jak teraz


코루🍊26 lis 2025
Patrząc na posty o grapefruicie, przyszło mi na myśl,
że przyjaciele, którzy mieli niejasne nagrody w czasach złotej ery Yapping, jak @Infinit_Labs i @Lombard_Finance,
teraz wydają się wchodzić w swoją prawdziwą erę.
Przechodzenie z starego Yapping do nowego Yapping (?) intensywnie postępuje,
coś w tym stylu... nagrody są nagrodami, ale... nie ma już tego smaku z przeszłości? W tej sytuacji
wręcz nagrody dla przyjaciół, którzy nie mogli się rozwinąć w starym Yapping (złotej erze), w sezonach 2 i 3 stały się obecnie bardzo, bardzo, bardzo ogromne.
----
Sama nagroda $IN, biorąc pod uwagę 500 najlepszych, to około 2 razy więcej,
a nagroda $BARD również znacznie zmniejszyła się do 100 osób miesięcznie, co w rezultacie sprawia, że nagrody na osobę są ogromne.
Co więcej, obie nie są tylko sztucznie promowane z nadzieją, ale to rzeczywiste produkty, które działają dobrze i przynoszą zyski.
Nagrody, okres, liczba osób są wszystkie jasno określone i nigdy nie złamano obietnicy.
(Wręcz przeciwnie, w przypadku @Lombard_Finance dostali to jeszcze szybciej.)
----
Ach, jak tęsknię...
Jednak bardzo zgadzam się z tym, co mówi grapefruity...
W rzeczywistości, to prawda, że nagrody były dziwnie duże do tej pory.
Dawali 10 tysięcy miesięcznie, a teraz dają 1 milion, więc czuję się zawiedziony.
Czy nie wezmę, gdy dadzą 1 milion miesięcznie?
To też nie jest prawda, haha...

279
[@SentientAGI Uzyskałem rolę Early AGI, czy to oznacza, że ukończyłem?]
Dużo pisałem na czacie Discorda
Zebrałem wszystkie posty, które do tej pory napisałem
Regularnie brałem udział w wydarzeniach
Wszystko zapisałem w Notion i złożyłem.
Dziś rano sprawdziłem kanał Discorda i okazało się, że jestem wśród osób, które awansowały na Early AGI!
Jestem rankingowym gracz + posiadam rolę Early AGI,
czy mogę się cieszyć?


코인추천요정 | GMB LABS11 lis 2025
Zgłębianie ROMA w Sentient
Patrząc na tablicę wyników @SentientAGI, wydaje się, że jakość tekstu jest również bardzo ważna. Dlatego postanowiłem napisać o ROMA, które moim zdaniem szczyci się najwyższą technologią w Sentient.
1. ROMA nie jest modelem AI.
- ROMA to dokładnie Multi-agent, czyli framework, w którym wiele agentów AI działa hierarchicznie i rekurencyjnie, odnosząc się do wartości innych agentów, aby uzyskać najbardziej wiarygodną i dokładną odpowiedź. W dokumentacji na GitHubie można zobaczyć podstawowe relacje między kodami, które zazwyczaj wykorzystują klucze API znanych modeli AI, takich jak GPT czy Gemini.
2. A więc, co jest kluczowe?
- Chodzi o podział ról na Atomizer, Executor, Planner i Aggregator. Gdy zadanie jest przydzielone, decyduje się, czy przetworzyć je jako jedno, czy wiele (Atomizer), następnie ustala, jak je rozwiązać (Planner), wykonuje zgodnie z planem (Executor) i na końcu zbiera wyniki (Aggregator), aby zwrócić odpowiedź. Dodatkowo można opcjonalnie wybrać etap weryfikacji odpowiedzi przez Weryfikatora (Verifier).
3. Czy używany jest tylko jeden model?
- Nie. Jeśli spojrzymy na kod Quickstart, to poza Executor, każdy z agentów jest określony jako osobny model (np. gpt-4o-mini, gemini-2.5-flash). W ten sposób nie używa się jednego modelu, ale wiele modeli, aby uzyskać najlepszą odpowiedź.
4. Czy odpowiedzi zawsze będą takie same?
- Również nie. Każdy model AI może dawać różne wyniki dla tego samego zadania, a także zależy to od tego, jak dostosowuje się parametry, czyli jak przeprowadza się fine-tuning. Na przykład, najbardziej reprezentatywny parametr Temperature ma wartości od 0 do 2, gdzie wartości bliższe 0 dają spójne odpowiedzi, a wartości bliższe 2 generują różnorodne odpowiedzi w każdym przypadku. Ostatecznie, to jak użytkownik ustawi te parametry, może znacząco wpłynąć na wydajność.
Ostatnio miałem przypadkową okazję do rozwijania AI agentów i podczas tego procesu uczyłem się, a teraz, patrząc na kod GitHub, wydaje mi się, że mam lepsze pojęcie o tym, co robiłem :)


252
.@SentientAGI's ROMA v2 ma strukturę, która dzieli duże problemy na mniejsze jednostki, które są następnie przetwarzane przez niezależne agenty, a wyniki są łączone z powrotem.
Dzięki temu model nie musi martwić się o zbyt wiele informacji naraz.
Ponadto każde zadanie zajmuje się tylko niezbędnymi informacjami, co zmniejsza ryzyko błędów i przeciążenia.
Jednocześnie przetwarzanie wielu zadań równolegle przyspiesza proces, a system jest zaprojektowany tak, aby automatycznie wybierać odpowiedni model dla każdego zadania, co zwiększa efektywność.
Taki sposób działania przypomina sposób, w jaki ludzie rozwiązują złożone problemy, dzieląc proces na etapy i przetwarzając je w kolejności.
Agenci mogą w ten sposób znacznie stabilniej realizować długoterminowe zadania.
----
ROMA v2 znacznie obniża obciążenie dla deweloperów.
Nie ma potrzeby osobnego trenowania modeli, aby stworzyć agentów wyspecjalizowanych w określonych dziedzinach.
Można je złożyć tylko za pomocą projektowania promptów, a materiały i wyniki generowane w trakcie realizacji są systematycznie zarządzane, co umożliwia ich ponowne wykorzystanie.
Dzięki temu proces współpracy między agentami stał się bardziej przejrzysty, a rozwiązywanie złożonych projektów w wielu etapach stało się łatwiejsze.
Ostatecznie można to postrzegać jako krok naprzód w zakresie współpracy wielu agentów, co prowadzi do ich rozszerzenia.


냐옹쩌둥Ⓜ️Ⓜ️T28 paź 2025
[@SentientAGI ]
To był projekt, który kiedyś dotarł do top 10,
ale próg się obniżył i
nie wiem, czy to z powodu zablokowania konta w wewnętrznym kręgu,
ale udział w myśleniu nie został odzwierciedlony, przez co wypadliśmy z setki.
Jednak... po meet-upie znowu wszystko się rozkręciłoㅠㅠ
Zawsze ciężko pracowałem, ale znowu postaram się,
jeśli będą dobre wieści, z chęcią je rozprzestrzenię! 🫡

163
Najlepsze
Ranking
Ulubione