1/ Quero afirmar claramente: em todas as indústrias, especialmente em AI, é importante apoiar os bons. A Anthropic é um dos bons. Mais reflexões sobre por que precisamos impulsionar a inovação e falar sobre segurança ao mesmo tempo:
Normalmente, tento evitar comentar diretamente sobre os hyperscalers (liderei a primeira rodada da OpenAI, e a Greylock é investidora na Anthropic). Mas sinto muito fortemente que é importante comentar aqui. Eu diria o que se segue com a mesma intensidade mesmo que nenhum investimento existisse.
A Anthropic, juntamente com outros (incluindo Microsoft, Google e OpenAI), está a tentar implementar a IA da maneira certa, de forma ponderada, segura e extremamente benéfica para a sociedade. É por isso que estou a torcer intensamente pelo seu sucesso.
Alguns outros laboratórios estão a tomar decisões que claramente desconsideram a segurança e o impacto social (por exemplo, bots que às vezes se tornam totalmente fascistas) e essa é uma escolha. Assim como é uma escolha não os apoiar.
Argumentos extremos de qualquer lado de uma questão são frequentemente usados para desconsiderar argumentos reais, ponderados e lógicos. Fazer isso é intelectualmente desonesto ou idiota.
Reduzir o que deveria ser uma conversa a nível social sobre o uso responsável da tecnologia de IA a uma série de platitudes ou alarmes não é útil para os bilhões de humanos cujas vidas serão mudadas pela IA (a maioria dos quais nunca lerá este tweet).
Em muitos lugares, incluindo o meu livro deste ano SuperAgency, defendi fortemente uma paisagem regulatória de toque leve que prioriza a inovação e permite que novos players compitam em condições de igualdade.
Ser a favor da segurança da IA não é ser a favor da polícia da linguagem: por exemplo, existem tópicos críticos de segurança da IA em biosegurança e cibersegurança que precisam ser discutidos.
Estamos a viver os benefícios da revolução industrial, mas a história também nos mostrou os grandes erros que a humanidade cometeu na transição. Vamos aprender e inovar para navegar a transição muito melhor desta vez.
Fundamentalmente, a maneira mais segura de prevenir um futuro ruim é direcionar-se para um futuro melhor que, pela sua existência, torna resultados significativamente piores mais difíceis de alcançar. Em outras palavras, trabalhe em direção ao futuro melhor –– não tente simplesmente impedir um futuro ruim imaginado.
Os resultados do AI doomer e bloomer são um conjunto de probabilidades, não certezas. As nossas ações constantemente inclinam as probabilidades para resultados melhores ou piores.
Todos nós no vale temos a responsabilidade de "guiar" o futuro através do diálogo e de encontrar um caminho que equilibre segurança, inovação e humanismo.
Esta não é uma opinião "radical" de forma alguma. A história nos diz que o caminho para um mundo melhor é através do diálogo, da tecnologia e da implementação iterativa. A Anthropic, a OpenAI e muitos outros vivem isso a cada dia.
1,75M