Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
1/ Quero dizer claramente: em todas as indústrias, especialmente em IA, é importante apoiar os mocinhos.
Anthropic é um dos mocinhos.
Mais pensamentos sobre por que precisamos alimentar a inovação e falar de segurança ao mesmo tempo:
Normalmente tento evitar comentar diretamente sobre os hiperescaladores (liderei a primeira rodada da OpenAI e a Greylock é investidora da Anthropic).
Mas sinto fortemente que é importante comentar aqui. Eu diria o que foi dito abaixo com a mesma força, mesmo que não existisse nenhum investimento.
A Anthropic, juntamente com alguns outros (incluindo Microsoft, Google e OpenAI), está tentando implantar a IA da maneira certa, de forma ponderada, segura e extremamente benéfica para a sociedade.
É por isso que estou torcendo intensamente pelo sucesso deles.
Alguns outros laboratórios estão tomando decisões que claramente desconsideram a segurança e o impacto social (por exemplo, bots que às vezes se tornam totalmente fascistas) e isso é uma escolha.
Assim como a escolha de não apoiá-los.
Argumentos extremos de ambos os lados de uma questão são frequentemente usados para afastar argumentos reais, ponderados e lógicos. Fazer isso é intelectualmente desonesto ou.
Reduzir o que deveria ser uma conversa em nível social sobre o uso responsável da tecnologia de IA a uma série de chavões ou alarmes não é útil para os bilhões de humanos que terão suas vidas mudadas pela IA (a maioria dos quais nunca lerá este tweet).
Em muitos lugares, incluindo meu livro deste ano SuperAgency, defendi fortemente um cenário regulatório leve que prioriza a inovação e permite que novos players concorram em condições equitativas.
Ser pró-segurança da IA não é ser policial pró-linguagem: por exemplo, há tópicos críticos de segurança da IA em biossegurança e segurança cibernética que precisam ser discutidos.
Estamos vivendo os benefícios da revolução industrial, mas a história também nos mostrou os grandes erros que a humanidade cometeu na transição.
Vamos aprender e inovar para navegar muito melhor na transição desta vez.
Fundamentalmente, a maneira mais segura de evitar um futuro ruim é orientar para um futuro melhor que, por sua existência, torne os resultados significativamente piores mais difíceis de alcançar.
Em outras palavras, trabalhe para um futuro melhor – não tente simplesmente impedir um futuro ruim imaginado.
Os resultados da IA são um conjunto de probabilidades, não de certezas. Nossas ações constantemente inclinam as chances para resultados melhores ou piores
Todos nós no vale temos a responsabilidade de "conduzir" o futuro por meio do diálogo e descobrir um caminho a seguir que equilibre segurança, inovação e humanismo.
Esta não é uma tomada "radical" de forma alguma. A história nos diz que o caminho para um mundo melhor é por meio do diálogo, da tecnologia e da implantação iterativa.
Anthropic, OpenAI e muitos outros estão vivendo isso todos os dias.
1,75M
Melhores
Classificação
Favoritos