Se você leu meu último post sobre Scott Jenson, vai lembrar que falamos de IA Local e da necessidade desesperada de parar de depender da nuvem para absolutamente toda interação. Pois é, o universo tem um senso de humor impecável. O Google acabou de soltar o Function Gemma.
Não é GPT-5.2. Não vai escrever sonetos shakespearianos. Tem 270 milhões de parâmetros. Pelos padrões atuais, isso é uma bactéria. Mas é uma bactéria cirúrgica.
O Anti-Hype
A indústria é obcecada por “quanto maior, melhor”. Mais VRAM, custos mais altos, latência absurda. O Function Gemma vai na direção oposta. Ele não quer conversar com você. Ele quer traduzir intenção em JSON. Ponto final.
Por que isso é genial (e eu não uso essa palavra à toa):
- Roda no edge. Com 270M, roda no celular, num Raspberry Pi, talvez até naquelas geladeiras inteligentes que ninguém usa.
- Privacidade de verdade. Seus dados não precisam sair do dispositivo só para acender uma lâmpada.
- Latência zero. Nada de ida e volta até um server farm na Virgínia.
O Fim do “Prompt Engineering” Místico
A gente perde horas tentando convencer modelos de 70B a cuspirem um JSON bem formatado. O Function Gemma foi fine-tuned exatamente para isso. Ele é uma ferramenta de roteamento, não um oráculo.
A proposta é simples:
Usuário fala → Function Gemma entende → cospe um JSON → seu código executa.
Sem alucinações sobre a alma das máquinas. Só entrada e saída determinística (na maior parte do tempo).
Onde Isso Muda o Jogo
Como alguém que trabalha com esses sistemas, eu vejo isso como a peça que faltava para Agentes de Verdade.
Imagina um app bancário. Você não quer mandar “Transferir R$50” para a OpenAI. Você quer um modelo pequeno, local, que entenda a frase e chame transfer_money(amount=50) ali mesmo, dentro de um ambiente de segurança controlado.
O Porém (Sempre Tem Um)
Não tente usar isso “out of the box” para filosofar. Ele é burro para generalidades. E, mais importante, ele brilha mesmo com Fine-Tuning. O vídeo mostra que o modelo base tem cerca de 58% de acerto em tarefas específicas, mas salta para 85%+ quando você faz fine-tuning com suas definições de função.
Ou seja: o trabalho ainda é seu. Não existe almoço grátis. Você precisa definir suas ferramentas, gerar dados sintéticos e treinar o modelo para o seu domínio. A recompensa é um modelo que roda na CPU do cliente e custa R$0,00 por token.
Conclusão
Finalmente estamos saindo da fase dos “Chat Toys” e entrando na fase dos “Componentes de Software”. O Function Gemma é basicamente um if/else estatístico glorificado? É. E é exatamente por isso que ele é útil.
Menos magia, mais engenharia.