Experimentei IA local no meu M1 Mac, esperando maravilhas – e recebi uma lição de realidade.

O MacBook Pro M1: Um Dispositivo Antigo, Mas Ainda Eficaz em 2026

O MacBook Pro M1, embora não seja mais o modelo mais recente, ainda apresenta capacidades relevantes em 2026.

Principais Conclusões

A ferramenta Ollama facilita consideravelmente o download de modelos de linguagem de código aberto, porém, mesmo os modelos menores podem apresentar desempenho lento. É importante ressaltar que tentar executar isso em um equipamento mais antigo, como uma máquina com 16GB de RAM, pode ser frustrante.

Como jornalista que cobre inteligência artificial há mais de uma década, sempre estive ciente dos desafios de engenharia de computação envolvidos na execução de soluções de IA. À medida que os modelos de linguagem aumentam, eles exigem cada vez mais memória DRAM para operar seus parâmetros.

Reconhecendo isso, decidi vivenciar a experiência de rodar um modelo de linguagem no meu computador. O processo de download e configuração de um modelo de IA pode ser complicado, mas me inspirei no trabalho realizado sobre a ferramenta Ollama por um colega e baixei o binário do Ollama para MacOS, que funcionou como uma porta de entrada para a IA local. A interface do Ollama é amigável e possui uma boa integração com diversas ferramentas de IA, o que é estimulante.

Vantagens de Manter o Modelo Local

Executar modelos de linguagem localmente oferece várias vantagens, não apenas para programadores, mas para qualquer trabalhador da informação. Primeiramente, profissionais que dominam essa habilidade têm uma vantagem competitiva no mercado. Em segundo lugar, ter um modelo local permite que dados sensíveis permaneçam seguros dentro do seu próprio equipamento. O objetivo do meu projeto era utilizar modelos locais para minerar um acervo pessoal de artigos que escrevi ao longo dos anos. Prefiro manter todos os arquivos em meu dispositivo, evitando a necessidade de enviá-los para serviços de nuvem.

Adicionalmente, manter modelos funcionando localmente promove economia, visto que as taxas cobradas por serviços como OpenAI e Google tendem a aumentar. Assim, é um bom momento para explorar métodos que permitam realizar a maior parte do trabalho offline. Por fim, ter um modelo local oferece um controle considerável sobre o processo, permitindo ajustes conforme necessário, o que é ideal para aqueles que desejam personalizar suas interações.

Mínimos Requisitos de Hardware

Iniciei minha experiência com um equipamento que considero mínimo para executar um modelo de linguagem. Meu MacBook Pro, com três anos de uso, possui 16GB de RAM e um disco rígido de 1TB, que está três quartos cheio. Rodando a versão MacOS Sonoma, este dispositivo foi considerado de ponta na época da compra, mas já está se tornando obsoleto. Mesmo assim, ele se mantém eficaz para tarefas diárias, como gerenciar e-mails e realizar edições de vídeo.

O grande desafio agora é como esse dispositivo mais antigo lidaria com a carga de trabalho de um modelo de IA.

Usando o Ollama

A interface inicial do Ollama se assemelha à do ChatGPT, apresentando um espaço para digitação de comandos e a opção de carregar documentos. Ao começar a digitar, o Ollama tenta automaticamente fazer o download do modelo exibido na lista. Contudo, foi necessário explorar mais, pois percebi que alguns modelos eram oferecidos apenas na nuvem. Embora essa opção possa ser útil para modelos maiores, preferi manter a execução local.

Optei por um modelo que parecia promissor, o glm-4.7-flash, da startup chinesa Z.ai. Com 30 bilhões de parâmetros, esse modelo é considerado pequeno atualmente, mas não insignificante. O diretório oferece comandos para download direto via terminal do Mac, algo que facilita bastante o processo, embora seja essencial estar atento ao espaço no disco, já que esse modelo ocupa 19 gigabytes.

Conhecendo o Modelo

Minha primeira pergunta foi simples: "Que tipo de modelo de linguagem você é?" O modelo começou a responder lentamente, enquanto eu observava a demora. Após um tempo considerável, a resposta ainda não havia avançado de maneira significativa. A resposta inicial não se mostrava tão reveladora, e, após uma longa espera, percebi que o modelo estava se perdendo em explicações que já sabia. Com isso, decidi descontinuar o uso deste.

Infelizmente, a ferramenta não oferece instruções claras sobre como remover um modelo localmente. A solução demandou que eu utilizasse o terminal para excluir os dados desnecessários.

Necessidade de Melhorar o Equipamento

Ao utilizar o ChatGPT online, a recomendação para rodar o modelo gpt-oss:20b é de ter pelo menos 32GB de RAM. Embora o MacBook Pro M1 tenha um GPU integrado e suporte para a versão local do modelo, a verdade é que não é mais suficiente apenas com 16GB de RAM. Está claro que precisarei mudar para uma máquina mais moderna.

Após essa experiência com o Ollama, compreendi melhor o quanto a inteligência artificial é exigente em termos de memória, além de notar as implicações disso na produtividade e no desempenho geral.

Referência: ZDNET

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima