Актуальные темы
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

korini
.@Lombard_Finance 하라고 ‘해쩨’
Эти ребята точно знают, что делают
Они уже провели TGE и постоянно это доказывают
Амбассадоры и креаторы также работают над сезоном 2
Смотрим только на цену $BARD, она отличается от обычных краудфандинговых проектов
Это также BTCfi, который имеет высокий потенциал роста..
—
Но есть один барьер для входа — это пороговое значение
Я тоже на Wider..
Тем не менее, это нужно делать
Заботиться о таких основах иногда может привести к большему успеху, чем просто надеяться на удачу
Как сейчас.


코루🍊26 нояб. 2025 г.
Когда я смотрел на пост о грейпфрутовом хаме, мне пришло в голову,
что друзья, которые были неясно вознаграждены в золотую эпоху Япинга, как @Infinit_Labs и @Lombard_Finance,
возможно, сейчас наконец-то достигнут своего расцвета.
Смена поколений от старого Япинга к новому (?) в последнее время активно происходит,
но, как бы это сказать... вознаграждение есть, но... в ситуации, когда нет того самого вкуса из прошлого?
На самом деле, вознаграждения для друзей, которые не смогли проявить себя в старом Япинге (золотом поколении), сейчас стали очень-очень-очень большими в сезонах 2 и 3.
----
Если посмотреть только на вознаграждение $IN, то по сравнению с верхними 500 людьми это примерно в 2 раза больше,
а вознаграждение $BARD также значительно уменьшилось до 100 человек в месяц, в результате чего вознаграждение на человека стало огромным.
Причем оба проекта не просто искусственно раскручиваются из-за ожиданий, а действительно имеют продукт, который работает и приносит прибыль.
Вознаграждение, сроки и количество людей четко определены, и обещания никогда не нарушались.
(Наоборот, в случае с @Lombard_Finance они даже выдали вознаграждение быстрее.)
----
Ах, как же я скучаю...
Но я также очень согласен с тем, что сказал грейпфрутовый хам...
На самом деле, до сих пор вознаграждения были необычно большими.
Когда давали 10 миллионов в месяц, а теперь 1 миллион, это вызывает недовольство,
но разве не будут участвовать, если предложат 1 миллион в месяц?
Это тоже не так, ха-ха...

419
[@SentientAGI Роль Early AGI получена, я выпустился?]
Много писал в чате Discord
Все сообщения, которые я отправлял до этого,整理
Регулярно участвовал в мероприятиях
Все записал в Notion и отправил.
Сегодня утром, проверив канал Discord, я увидел, что я включен в повышение до Early AGI!
Я рангер Япинга + владелец роли Early AGI,
Могу ли я радоваться?
@namyura_ @0xsachi


코인추천요정 | GMB LABS11 нояб. 2025 г.
센티언트 ROMA 파헤치기
@SentientAGI 리더보드를 보니 글의 퀄리티도 상당히 중요한 것 같더라구요. 그래서 저는 센티언트에서 가장 높은 기술력을 자랑한다고 생각하는 ROMA에 대해서 써볼게요.
1. ROMA는 AI 모델이 아니다.
- ROMA는 정확히 Multi-agent 즉, 여러개의 AI 에이전트들이 계층적으로, 재귀적으로 각 에이전트들의 값을 참고하여 가장 신뢰도 높은, 정확도가 높은 답을 이끌어내주는 프레임워크 입니다. 깃헙 Readme를 보면 보통 그 코드들의 기본적인 유기관계를 볼 수 있는데 우리가 흔히 아는 GPT, Gemini 같은 AI모델들의 API key를 입력해서 사용하게 됩니다.
2. 그래서 핵심은?
- 바로 Atomizer, Executor, Planner, Aggregator 4가지의 역할 분담에 있습니다. 어떠한 일이 주어졌을때 하나로 혹은 여러개로 처리할지(Atomizer) 정하고 어떻게 해결할지(Planner) 결정한 후에 계획한대로 실행(Executor)하고 이후에 취합(Aggregator)해서 답을 반환해줍니다. 여기에 추가로 검증자(Verifier)를 통해 답을 검증하는 단계도 옵션으로 선택할 수 있어요.
3. 하나의 모델만 쓰이는건가?
- 아닙니다. Quickstart 코드를 참고해서 보면 Executor를 제외하고 모두 각각의 모델을 명시합니다.(ex. gpt-4o-mini, gemini-2.5-flash) 이렇게 해서 하나의 모델이 아니라 여러모델을 쓰면서 가장 좋은 답변을 도출하는 것 같네요.
4. 답이 항상 똑같을까?
- 이것도 아닙니다. 각 AI모델마다 일단 하나의 태스크에 대한 실행결과도 다르고 파라미터들을 어떻게 조정하냐 즉, fine-tuning을 어떻게 하냐에 따라 다릅니다. 예를들어, 가장 대표적인 Temperature라는 파라미터는 0-2 값을 가지는데 0에 가까울수록 일관된 답변을, 2에 가까울수록 각 시행마다 다양한 답변을 내놓습니다. 결국, 사용자가 이를 어떻게 설정하냐에 따라 성능차이가 크게 날 것 같습니다.
제가 최근에 우연히 AI agent 개발을 할 기회가 있었는데 그때 AI 계속 돌려가면서 공부했던 내용이 뭔가 이제는 깃헙코드를 보아하니 어림잡아 보이는 것 같아서 써봤습니다:)


412
.@SentientAGI ROMA v2 имеет структуру, которая разбивает большую проблему на более мелкие части, которые обрабатываются независимыми агентами, а затем результаты снова объединяются.
Таким образом, модели не нужно одновременно обрабатывать слишком много информации.
Кроме того, каждая задача обрабатывает только необходимую информацию, что снижает количество ошибок и перегрузок.
Поскольку несколько задач обрабатываются параллельно, скорость также увеличивается, и каждая задача автоматически выбирает необходимую модель, что улучшает эффективность.
Этот подход похож на то, как человек решает сложные проблемы, разбивая процесс на части и обрабатывая их по порядку.
Агенты могут выполнять долгосрочные задачи гораздо более стабильно.
----
ROMA v2 значительно снижает нагрузку на разработчиков.
Нет необходимости отдельно обучать модели для создания агентов, специализированных в определенной области.
Можно просто собрать их с помощью проектирования подсказок, а материалы и результаты, создаваемые в процессе выполнения, систематически управляются для повторного использования.
Благодаря этому процесс сотрудничества между агентами становится более упорядоченным, и решать сложные проекты стало легче, разбивая их на несколько этапов.
В конечном итоге это можно рассматривать как обновление части, где несколько агентов сотрудничают и расширяются.


냐옹쩌둥Ⓜ️Ⓜ️T28 окт. 2025 г.
[@SentientAGI ]
한때 탑 10까지 갔었던 프로젝트였는데
임계값이 낮아지고
이너서클 계정락인지 무엇인지 모르겠지만
마인드쉐어가 반영되지 않아 100위가 이탈되었었습니다.
그런데... 밋업후로 다시 혈이 뚫렸네요ㅠㅠ
항상 열심히 달렸지만 다시 노력해서
좋은소식있으면 열심히 퍼나르겠습니다 ! 🫡

309
Топ
Рейтинг
Избранное