Steuern wir auf eine stabile Dystopie zu? Ich habe darüber nachgedacht, wie KI die Gesellschaft gestalten wird, und ein bestimmtes Szenario scheint mir ein wahrscheinliches Ergebnis zu sein. So könnte es ablaufen: • KI automatisiert immer mehr menschliche Arbeit • Die Erträge aus dieser Automatisierung fließen zurück zu den Kapitalinhabern, wodurch sie reicher werden • Während die Einkommen der Massen sinken, ignoriert/abschafft die Regierung die Einkommenssteuer, besteuert stattdessen das Unternehmens- und Vermögenseinkommen für ihre Bedürfnisse • Die Reichen isolieren sich (wie sie es tun) und nutzen KI-gestützte Drohnen/Roboter, um sich zu schützen • Dies entzieht den Massen alle Macht -> Regierungen schenken den Massen weniger Aufmerksamkeit, da ihr Beitrag zu den Steuern schwindet und sie sich nicht einmal auflehnen können, da sie gegen KI-Sicherheitskräfte antreten • Eine minimale Form von UBI wird den Massen im Namen der Moral bereitgestellt • Alle zukünftige soziale Mobilität stoppt, und die aktuellen Machtstrukturen werden für immer eingefroren Kurz gesagt, die Mächtigen und Reichen schaffen eine parallele Gesellschaft und die soziale Mobilität stoppt, weil die Kapitalbesitzer / Machtvermittler die KI kontrollieren, die wirtschaftliche Arbeit verrichtet (und verhindern, dass jemand anders aufsteigt). Man kann argumentieren, dass dies schrittweise passiert ist, aber heute haben die Massen noch Macht aufgrund ihres Arbeitsbeitrags und ihrer Fähigkeit, physisch gegen die Elite zu rebellieren. Aber KI hat das Potenzial, dieses Machtgleichgewicht zu verändern, und es scheint, dass wir leider dorthin steuern. /syndicated
Bitte beachten Sie, dass dieses Szenario wahrscheinlich das Standard-Szenario ist, aber nicht in Stein gemeißelt. Ich denke, die Menschheit hat immer noch eine Chance, die Macht nicht an die Elite und/oder KI abzugeben. Ein Ausweg besteht darin, KI ausreichend im Open Source zu verbreiten, sodass der Zugang dazu demokratisch ist (aber Skalierungsgesetze deuten darauf hin, dass größere Modelle immer kleinere übertreffen könnten!). Eine andere Möglichkeit besteht natürlich darin, die KI-Entwicklung zu stoppen (aber ich glaube nicht, dass das passieren wird; die Menschen sind zu neugierig, um aufzuhören). Was halten Sie von diesem Szenario? Plausibel? Wie stellen wir sicher, dass das nicht passiert?
199