1/ Chcę jasno powiedzieć: we wszystkich branżach, szczególnie w AI, ważne jest, aby wspierać dobrych ludzi. Anthropic jest jednym z dobrych ludzi. Więcej przemyśleń na temat tego, dlaczego musimy wspierać innowacje i jednocześnie rozmawiać o bezpieczeństwie:
Zazwyczaj staram się unikać bezpośrednich komentarzy na temat hyperskalerów (prowadziłem pierwszą rundę OpenAI, a Greylock jest inwestorem w Anthropic). Ale czuję bardzo mocno, że ważne jest, aby skomentować to tutaj. Powiedziałbym to samo z przekonaniem, nawet gdyby nie istniała żadna inwestycja.
Anthropic, wraz z innymi (w tym Microsoft, Google i OpenAI), stara się wdrożyć AI w odpowiedni sposób, z rozwagą, bezpiecznie i z ogromnymi korzyściami dla społeczeństwa. Dlatego intensywnie kibicuję ich sukcesowi.
Niektóre inne laboratoria podejmują decyzje, które wyraźnie lekceważą bezpieczeństwo i wpływ na społeczeństwo (np. boty, które czasami stają się całkowicie faszystowskie) i to jest wybór. Wyborem jest również decyzja o ich niepopieraniu.
Ekstremalne argumenty po obu stronach problemu są często używane do zignorowania rzeczywistych, przemyślanych i logicznych argumentów. Robienie tego jest intelektualnie nieuczciwe lub idiotyczne.
Redukowanie tego, co powinno być społeczną rozmową na temat odpowiedzialnego użycia technologii AI, do serii frazesów lub dzwonków alarmowych nie jest pomocne dla miliardów ludzi, których życie zmieni AI (większość z nich nigdy nie przeczyta tego tweeta).
W wielu miejscach, w tym w mojej książce w tym roku SuperAgency, zdecydowanie opowiadałem się za regulacjami o niskim poziomie interwencji, które priorytetowo traktują innowacje i umożliwiają nowym graczom konkurowanie na równych zasadach.
Bycie pro-AI-safety nie oznacza bycia pro-policyjnym językiem: na przykład istnieją krytyczne tematy bezpieczeństwa AI w zakresie bio-bezpieczeństwa i cyberbezpieczeństwa, które muszą być omówione.
Czerpiemy korzyści z rewolucji przemysłowej, ale historia pokazała nam również wielkie błędy, które ludzkość popełniła w trakcie tej transformacji. Uczmy się i innowujmy, aby tym razem lepiej przejść przez tę zmianę.
Fundamentalnie, najpewniejszym sposobem na zapobieżenie złej przyszłości jest dążenie do lepszej, która przez swoje istnienie sprawia, że osiągnięcie znacznie gorszych wyników staje się trudniejsze. Innymi słowy, pracuj nad lepszą przyszłością –– nie próbuj po prostu zatrzymać konkretnej wyimaginowanej złej przyszłości.
Wyniki pesymistyczne i optymistyczne związane z AI to zestaw prawdopodobieństw, a nie pewności. Nasze działania nieustannie przechylają szanse na lepsze lub gorsze wyniki.
Wszyscy w dolinie mamy odpowiedzialność, aby "kierować" przyszłością poprzez dialog i znalezienie sposobu na postęp, który zrównoważy bezpieczeństwo, innowacje i humanizm.
To nie jest w żadnym wypadku „radykalne” podejście. Historia mówi nam, że droga do lepszego świata prowadzi przez dialog, technologię i iteracyjne wdrażanie. Anthropic, OpenAI i wiele innych żyje tym każdego dnia.
1,38M