Pular para o conteúdo principal
Portfolio logo Patrick Tavares

Voltar para todos os posts

Tamanho Não Importa: O Valor do Function Gemma

Publicado em por Patrick Tavares · 3 min de leitura

Se você leu meu último post sobre Scott Jenson, vai lembrar que falamos de IA Local e da necessidade desesperada de parar de depender da nuvem para absolutamente toda interação. Pois é, o universo tem um senso de humor impecável. O Google acabou de soltar o Function Gemma.

Não é GPT-5.2. Não vai escrever sonetos shakespearianos. Tem 270 milhões de parâmetros. Pelos padrões atuais, isso é uma bactéria. Mas é uma bactéria cirúrgica.

Play

O Anti-Hype

A indústria é obcecada por “quanto maior, melhor”. Mais VRAM, custos mais altos, latência absurda. O Function Gemma vai na direção oposta. Ele não quer conversar com você. Ele quer traduzir intenção em JSON. Ponto final.

Por que isso é genial (e eu não uso essa palavra à toa):

  1. Roda no edge. Com 270M, roda no celular, num Raspberry Pi, talvez até naquelas geladeiras inteligentes que ninguém usa.
  2. Privacidade de verdade. Seus dados não precisam sair do dispositivo só para acender uma lâmpada.
  3. Latência zero. Nada de ida e volta até um server farm na Virgínia.

O Fim do “Prompt Engineering” Místico

A gente perde horas tentando convencer modelos de 70B a cuspirem um JSON bem formatado. O Function Gemma foi fine-tuned exatamente para isso. Ele é uma ferramenta de roteamento, não um oráculo.

A proposta é simples:

Usuário fala → Function Gemma entende → cospe um JSON → seu código executa.

Sem alucinações sobre a alma das máquinas. Só entrada e saída determinística (na maior parte do tempo).

Onde Isso Muda o Jogo

Como alguém que trabalha com esses sistemas, eu vejo isso como a peça que faltava para Agentes de Verdade. Imagina um app bancário. Você não quer mandar “Transferir R$50” para a OpenAI. Você quer um modelo pequeno, local, que entenda a frase e chame transfer_money(amount=50) ali mesmo, dentro de um ambiente de segurança controlado.

O Porém (Sempre Tem Um)

Não tente usar isso “out of the box” para filosofar. Ele é burro para generalidades. E, mais importante, ele brilha mesmo com Fine-Tuning. O vídeo mostra que o modelo base tem cerca de 58% de acerto em tarefas específicas, mas salta para 85%+ quando você faz fine-tuning com suas definições de função.

Ou seja: o trabalho ainda é seu. Não existe almoço grátis. Você precisa definir suas ferramentas, gerar dados sintéticos e treinar o modelo para o seu domínio. A recompensa é um modelo que roda na CPU do cliente e custa R$0,00 por token.

Conclusão

Finalmente estamos saindo da fase dos “Chat Toys” e entrando na fase dos “Componentes de Software”. O Function Gemma é basicamente um if/else estatístico glorificado? É. E é exatamente por isso que ele é útil.

Menos magia, mais engenharia.