O NemoClaw da Nvidia possui três camadas de segurança de agente. Nenhum deles resolve o problema real.

A velocidade da adoção do LLM exige que verifiquemos sua trajetória de tempos em tempos. O CEO Jensen Huang, falando na Nvidia GPU Technology Conference, cobriu o crescimento da computação agente. Durante um período de dois anos, houve um aumento de 10.000 vezes na demanda de computação por usuário, com o uso geral aumentando 100 vezes. São muitos tokens, e é por isso que a IA ainda suga muitos dólares de investimento.

Como vimos na semana passada, a atual estrela do mundo agente em termos de A popularidade do usuário pessoal é definitivamente o OpenClaw, que parece oferecer muitos recursos de ficção científica sonhos com computadores falantes úteis.

Portanto, não há mistério sobre por que a Nvidia apóia totalmente o OpenClaw. É a forma mais desenfreada de uso de token que existe. E é claro que o Sr. Huang também encorajaria as empresas a adotarem uma “estratégia OpenClaw”. Mas, assim como a Anthropic, eles sabem que só podem abraçar o fenômeno do código aberto usando bastante armadura.

Conseqüentemente, a Nvidia lançou Nemo Garraque pega a onda do OpenClaw, antes de adicionar grades de proteção suficientes para torná-lo vagamente mais seguro. Mas, infelizmente, o NemoClaw não substitui o OpenClaw; fica em cima dele.

Abraçando o caranguejo

Como podemos ver em artigos recentes, haverá muitas oportunidades para tornar o OpenClaw mais seguro. E assim como a Anthropic, a Nvidia acredita que a resposta ao OpenClaw é deixar a Nvidia protegê-lo dele. Para isso, acrescentam três componentes de arquitetura de segurança.

A primeira peça é a aplicação de políticas – um sistema muito utilizado nas últimas décadas. Esta é a camada de governança que estabelece limites que espera garantir que o adolescente volte para casa antes do anoitecer.

Ao restringir o sistema de arquivos e o acesso à rede, espera-se que um agente raciocine sobre o motivo do bloqueio e proponha uma atualização de política que o usuário humano possa aprovar. Mas se sair pela janela do quarto, pode passar por você completamente, sem que você perceba. E isso se multiplica para sistemas multiagentes.

Há uma ineficiência inerente em permitir que agentes autoevolutivos instalem pacotes, aprendam habilidades e gerem subagentes apenas para detê-los na porta porque você não gosta do que eles estão vestindo.

“Há uma ineficiência inerente em permitir que agentes em autoevolução instalem pacotes, aprendam habilidades e gerem subagentes apenas para detê-los na porta porque você não gosta do que eles estão vestindo.”

No geral, quanto mais competências o sistema conhece, menos eficaz é a aplicação das políticas, uma vez que só aprende realmente depois do facto. Ou você interrompe as tarefas com tanta frequência que elas não são mais autônomas, ou espera poder adivinhar um mentor que está pagando para resolver problemas 24 horas por dia, 7 dias por semana. Na realidade, o sucesso de qualquer sistema dependerá da experiência (e do cinismo) dos engenheiros empregados para gerenciá-lo.

A segunda parte é o roteamento de privacidade. Esta é uma boa maneira de controlar despesas e de parar de ceder grande parte do seu IP aos provedores de nuvem. (Mas isso não impede que os agentes enviem suas senhas por e-mail porque um terceiro pediu com educação.)

Bem configurado, você decide o que permanece local e quais consultas vão para os modelos de nuvem maiores. Um roteador pode tomar decisões sobre a seleção do modelo com base no custo e em uma política de privacidade avançada. Ao contrário dos provedores de nuvem, a Nvidia pode ganhar um bom dinheiro vendendo mais chips se você tentar fazer inferências pesadas em suas próprias máquinas. Mas é sempre sensato selecionar o modelo certo para a tarefa.

A terceira peça é a execução em sandbox. Isso é vital para evitar que um processo ruim tenha acesso simples a processos de agentes vizinhos, mas também fornece uma maneira de testar um sistema com risco muito menor, rastreando e inspecionando o tráfego de rede pretendido. Isso também é importante para tarefas de longa duração que não podem ser testadas trivialmente de outra forma. Se você deseja apenas executar agentes em um contêiner, experimente o NanoClaw.

Mas verdadeiramente, “avanço significativo em relação ao OpenClaw” é uma barra baixa. Eu esperaria mais tentativas de construir produtos seguros a partir do zero, mas até que isso aconteça, as empresas aguardarão o momento certo e verão onde está o fundo da trincheira das falhas de segurança, antes de mergulharem.

Muitas garras

Até ao final de 2026, muitas pequenas empresas e organizações globais provavelmente terão uma estratégia de agência. Daí o número crescente de “garras” por aí. Garra de Defesa. Pico Garra. Garra Zero. Provavelmente existe uma Sanity Claws.

À medida que o mercado empresarial aumenta o seu apetite pela computação de agentes, a próxima verdadeira barreira será a capacidade de empregar o pessoal certo para controlá-la. Enquanto as pessoas nos alertam sobre quantos empregos de desenvolvedor podem ser perdidos (e vendo os preços das ações subirem na esperança de menores despesas gerais), o que é menos discutido é a dificuldade de contratar as pessoas certas para cuidar dos novos sistemas. Como mencionei, não se trata mais de empregar jovens programadores ávidos – trata-se mais de veterinários grisalhos identificando possíveis armadilhas em todo o fluxo de trabalho e elaborando perfis de risco.

“Não se trata mais de empregar jovens programadores ávidos – trata-se mais de veterinários grisalhos identificarem possíveis armadilhas em todo o fluxo de trabalho e elaborarem perfis de risco.”

A razão pela qual Apple, Google, Microsoft, et al. não cumpriram as promessas iniciais dos assistentes digitais e ainda não o fizeram é precisamente porque conseguem ver os problemas. Na verdade, desde que a HAL se recusou a abrir as portas do compartimento das cápsulas, as grandes empresas têm sido muito cuidadosas na forma como enquadram a IA publicamente, sabendo muito bem que falhas embaraçosas suficientes causariam uma rejeição dura. O fato de um projeto de código aberto como o OpenClaw ter aberto a Caixa de Pandora não é razão para que organizações responsáveis ​​tenham esperança enquanto subestimam os riscos.


Grupo Criado com esboço.



Deseja saber mais sobre Programação e Desenvolvimento Clique Aqui!

Deixe um comentário

Translate »