Zgłębianie ROMA w Sentient Patrząc na tablicę wyników @SentientAGI, wydaje się, że jakość tekstu jest również bardzo ważna. Dlatego postanowiłem napisać o ROMA, które moim zdaniem szczyci się najwyższą technologią w Sentient. 1. ROMA nie jest modelem AI. - ROMA to dokładnie Multi-agent, czyli framework, w którym wiele agentów AI działa hierarchicznie i rekurencyjnie, odnosząc się do wartości innych agentów, aby uzyskać najbardziej wiarygodną i dokładną odpowiedź. W dokumentacji na GitHubie można zobaczyć podstawowe relacje między kodami, które zazwyczaj wykorzystują klucze API znanych modeli AI, takich jak GPT czy Gemini. 2. A więc, co jest kluczowe? - Chodzi o podział ról na Atomizer, Executor, Planner i Aggregator. Gdy zadanie jest przydzielone, decyduje się, czy przetworzyć je jako jedno, czy wiele (Atomizer), następnie ustala, jak je rozwiązać (Planner), wykonuje zgodnie z planem (Executor) i na końcu zbiera wyniki (Aggregator), aby zwrócić odpowiedź. Dodatkowo można opcjonalnie wybrać etap weryfikacji odpowiedzi przez Weryfikatora (Verifier). 3. Czy używany jest tylko jeden model? - Nie. Jeśli spojrzymy na kod Quickstart, to poza Executor, każdy z agentów jest określony jako osobny model (np. gpt-4o-mini, gemini-2.5-flash). W ten sposób nie używa się jednego modelu, ale wiele modeli, aby uzyskać najlepszą odpowiedź. 4. Czy odpowiedzi zawsze będą takie same? - Również nie. Każdy model AI może dawać różne wyniki dla tego samego zadania, a także zależy to od tego, jak dostosowuje się parametry, czyli jak przeprowadza się fine-tuning. Na przykład, najbardziej reprezentatywny parametr Temperature ma wartości od 0 do 2, gdzie wartości bliższe 0 dają spójne odpowiedzi, a wartości bliższe 2 generują różnorodne odpowiedzi w każdym przypadku. Ostatecznie, to jak użytkownik ustawi te parametry, może znacząco wpłynąć na wydajność. Ostatnio miałem przypadkową okazję do rozwijania AI agentów i podczas tego procesu uczyłem się, a teraz, patrząc na kod GitHub, wydaje mi się, że mam lepsze pojęcie o tym, co robiłem :)