V průběhu času se odvíjelo mnoho různých věcí, až algoritmy přešly na příčinné místo důsledkové Lidé nyní optimalizují algoritmus, který zase vytváří zpětnou vazbu na to, co do něj vstupuje, což se nenávratně nahromadilo do negativní zpětné vazby
Věci, které byly základem [důvodu, proč algoritmy měly] hodnotu ve svých inferencích, zcela vyprchaly Mikrokosmos (nezahrnující) příklad: dříve jste sledovali 100 lidí, které jste skutečně znali. Všichni následovali těch 100 lidí, které skutečně znají. Vzájemnost ve druhém stupni byla pro vás nutně relevantní. Což znamenalo, že koho sledovat algoritmy rekurzovali na vstupech s vysokou inferenční hodnotou pro ctnostný cyklus jejich následujícího grafu To už neplatí pro žádné akruální hodnocení, nebo pokud je v malém měřítku, je to také nevratně klesající (a už je za hranicí špatného vážení) Což je zhruba podobné tomu, co Jeff Bezos řeší o optimalizaci metrik (původně existuje *důvod*, základní množina principů, pro kterou vlastně optimalizujete, a metriky jsou jeho zástupcem. Nakonec se metriky odpojí, ale stále jsou optimalizovány)
Algo byly na velmi krátký okamžik zpětnou vazbou na (nyní se zdá být náhodnými) vstupy s vysokou inferenční hodnotou, které vytvářely ctnostný cyklus vlastních výsledků akce (a indexu v něm, který je pak propletenou zpětnou vazbou) Data jsou tak dobrá, jak dobrá je to, co lze skutečně odvodit, a přemodelování a přeindexování pozornosti místo spojovacích vektorů je zmenšilo do začarovaných kruhů mimo jejich vlastní vstupní hodnotu
Tohle se (už začalo) dít i u AI, což je také jen zpětná vazba na vstupech. Jenže tohle se stane mnohem rychleji
56