veel afzonderlijke dingen hebben zich in de loop van de tijd afgespeeld waardoor algoritmen causal zijn geworden in plaats van consequentieel mensen optimaliseren nu voor het algoritme, wat op zijn beurt terugkoppelt op wat erin wordt ingevoerd, wat onherstelbaar is samengevoegd in een negatieve feedbacklus
de dingen die de waarde van [de reden waarom algoritmen] in hun inferenties ondersteunden, zijn volledig verminderd een microkosmos (niet-omvattend) voorbeeld: je volgde vroeger 100 mensen die je daadwerkelijk kent. zij volgden allemaal de 100 mensen die zij daadwerkelijk kennen. wederkerigheid op de tweede graad was noodzakelijk relevant voor jou. wat betekende dat wie te volgen algoritmes recursief op hoge inferentiewaarde-invoer voor een deugdzame cyclus van hun daaropvolgende grafiek dit is niet langer waar voor enige accumulatie, of waar het in kleine manieren is, is het ook onomkeerbaar aan het verminderen (en al voorbij het kantelpunt van slechte weging) wat ruwweg vergelijkbaar is met het gesprek van Jeff Bezos over metrische optimalisatie (oorspronkelijk is er een *reden*, een set van eerste principes, waarvoor je daadwerkelijk optimaliseert, en de metrics zijn een proxy daarvoor. uiteindelijk raken de metrics losgekoppeld, maar worden ze nog steeds geoptimaliseerd)
algo's waren, voor een zeer kort moment, feedbackloops op (wat nu lijkt op accidentele) invoer met hoge inferentiewaarde die een deugdzame cyclus van hun eigen actie-uitkomsten veroorzaakten (en index daarin, wat vervolgens een onderling verbonden feedbackloop is) data is alleen zo goed als wat daadwerkelijk kan worden afgeleid, en overmodelleren en over-indexeren op aandacht in plaats van connectievectors heeft hen verminderd tot vicieuze cirkels weg van hun eigen invoerwaarde.
dit zal (al begonnen zijn te) gebeuren voor ai, wat ook gewoon een feedbacklus op invoer is. behalve dat dit veel sneller zal gebeuren
59