„Dlaczego AGI nie nastąpi” @Tim_Dettmers Ten esej jest wart przeczytania. Omawia malejące zyski (i ryzyka) związane z skalowaniem. Kontrast między Zachodem a Wschodem: podejście „Zwycięzca bierze wszystko” w budowaniu największej rzeczy w porównaniu do długoterminowego skupienia na praktyczności. „Celem tego wpisu na blogu jest poruszenie tego, co uważam za bardzo niechlujne myślenie, myślenie, które powstaje w komorze echa, szczególnie w Bay Area, gdzie te same pomysły wzmacniają się nawzajem bez krytycznej świadomości. To wzmocnienie złych pomysłów i myślenia, które emanuje z ruchów racjonalistycznych i EA, jest dużym problemem w kształtowaniu korzystnej przyszłości dla wszystkich.” „Kluczowym problemem z pomysłami, szczególnie tymi pochodzącymi z Bay Area, jest to, że często żyją one całkowicie w przestrzeni idei. Większość ludzi, którzy myślą o AGI, superinteligencji, prawach skalowania i ulepszeniach sprzętowych, traktuje te koncepcje jako abstrakcyjne idee, które można omawiać jak filozoficzne eksperymenty myślowe. W rzeczywistości wiele myślenia o superinteligencji i AGI pochodzi z filozofii w stylu oksfordzkim. Oksford, miejsce narodzin efektywnego altruizmu, zmieszany z kulturą racjonalności z Bay Area, dał początek silnej deformacji sposobu jasnego myślenia o pewnych ideach.”