\n\n\n\n A Apple aprovou um driver de eGPU da Nvidia, mas há um detalhe que vale a pena comemorar. - AI7Bot \n

A Apple aprovou um driver de eGPU da Nvidia, mas há um detalhe que vale a pena comemorar.

📖 5 min read849 wordsUpdated Apr 5, 2026

A Apple acaba de aprovar um driver que permite que eGPUs da Nvidia funcionem com Macs Arm. A Apple e a Nvidia não têm se dado bem há anos. Esses dois fatos não deveriam coexistir, mas aqui estamos em 2026, e estou genuinamente empolgado com o que isso significa para quem está construindo bots de IA em hardware Mac.

A reviravolta? A Nvidia não escreveu esse driver. A Tiny Corp fez isso.

Isso mesmo—um terceiro conseguiu preencher a lacuna que dois gigantes da tecnologia não se deram ao trabalho de atravessar. E, honestamente, isso torna essa história ainda melhor para aqueles de nós que realmente estão construindo coisas.

Por que isso é importante para os construtores de bots

Se você está treinando modelos ou fazendo inferência localmente, conhece a dor das limitações da GPU do Silicon da Apple. Os chips da série M são impressionantes para tarefas do dia a dia, mas quando você está iterando em arquiteturas de transformadores ou testando sistemas multiagente, você rapidamente encontra barreiras. A API Metal da Apple é boa, mas a CUDA tem o ecossistema. As bibliotecas. O suporte da comunidade. Os exemplos que realmente funcionam.

Eu tenho rodado minha configuração de desenvolvimento em um Mac M2 e já perdi a conta de quantas vezes precisei criar uma instância na nuvem apenas para testar algo que necessitava de uma aceleração GPU adequada. O custo se acumula. A latência é irritante. E há algo profundamente insatisfatório em não poder usar a máquina que está bem na sua frente.

As GPUs externas deveriam resolver isso. Mas quando a Apple mudou para a arquitetura Arm, o suporte a eGPUs desapareceu. Macs Intel poderiam usá-las. Macs Arm não podiam. A linha oficial era de que a arquitetura não suportava, mas sejamos realistas—era mais sobre a Apple querer que você comprasse suas soluções de hardware.

A limitação do Thunderbolt que ninguém está comentando

Antes de ficarmos muito empolgados, há uma realidade técnica que precisamos abordar. Essas eGPUs se conectam via Thunderbolt, o que significa que você está obtendo uma fração do que aquela placa Nvidia realmente pode fazer. O Thunderbolt 4 atinge cerca de 40 Gbps. Um slot PCIe 4.0 x16? Isso é 256 Gbps. Você está deixando desempenho na mesa.

Para treinar grandes modelos de linguagem do zero, essa configuração não substituirá uma estação de trabalho adequada. Mas para ajustar modelos menores? Fazer inferência em versões quantizadas? Testar arquiteturas de agentes antes de se comprometer com execuções caras na nuvem? Isso pode ser exatamente o que precisamos.

Estou pensando em todas as vezes que quis experimentar diferentes estratégias de quantização ou testar como um modelo se comporta com diferentes tamanhos de lote. Ter acesso local à GPU—mesmo que limitado—significa ciclos de iteração mais rápidos. Significa que posso testar uma ideia às 2 da manhã sem me preocupar com custos na nuvem ou limites de cota.

O que a Tiny Corp realmente construiu

De acordo com o anúncio deles, o processo de instalação é simples o suficiente para que “um Qwen poderia fazer isso.” Isso é tanto uma piada quanto uma promessa—eles estão afirmando que a configuração é tão direta que um modelo de IA poderia te guiar através dela. Então você pode realmente executar aquele modelo no hardware que acabou de configurar.

O driver suporta placas AMD e Nvidia, o que nos dá opções. O ecossistema CUDA da Nvidia é o atrativo óbvio, mas o ROCm da AMD tem melhorado, e suas placas muitas vezes oferecem mais VRAM pelo preço. Para construtores de bots que trabalham com aplicações pesadas em contexto ou modelos multimodais, essa memória extra é importante.

A imagem maior

Essa aprovação sinaliza algo interessante sobre a posição atual da Apple. Eles estão permitindo soluções de terceiros para preencher lacunas em seu ecossistema. Isso não é a Apple de cinco anos atrás. Talvez eles tenham percebido que os desenvolvedores precisam de flexibilidade, ou talvez estejam apenas escolhendo suas batalhas de forma diferente agora.

De qualquer forma, esta semana estou encomendando uma embalagem Thunderbolt. Tenho uma RTX 4070 guardada em uma gaveta de uma construção antiga, e estou curioso para ver como ela se comporta para o tipo de trabalho que realmente faço—ajuste de modelos de incorporação, teste de sistemas de recuperação, execução de inferência local para desenvolvimento.

Ela vai igualar uma estação de trabalho dedicada Linux? Não. Ela vai superar a criação de uma instância na nuvem toda vez que eu quiser testar algo? Absolutamente. E para trabalho de desenvolvimento iterativo, isso é o que importa.

Às vezes, a melhor solução não é a mais poderosa. É a que remove atrito do seu fluxo de trabalho. A Tiny Corp acabou de remover um pedaço significativo de atrito para desenvolvedores de IA baseados em Mac, e a Apple—surpreendentemente—deixou que eles fizessem isso.

🕒 Published:

💬
Written by Jake Chen

Bot developer who has built 50+ chatbots across Discord, Telegram, Slack, and WhatsApp. Specializes in conversational AI and NLP.

Learn more →
Browse Topics: Best Practices | Bot Building | Bot Development | Business | Operations
Scroll to Top