A abordagem dos EUA para a política de IA é um espaço complexo, fragmentado e em evolução. Ao contrário da abrangente Lei de IA da UE, os EUA dependem de uma colcha de retalhos de ordens executivas, diretrizes de agências e iniciativas em nível estadual. Compreender isso faz a diferença para empresas e pesquisadores que atuam ou interagem com o mercado americano.
A abordagem “Não Regulamentar” (Inicialmente)
Por muito tempo, os EUA resistiram a uma regulamentação profunda de IA, priorizando a inovação e o desenvolvimento rápido. A filosofia era de que as leis existentes eram suficientes e novas regulamentações poderiam sufocar uma indústria nascente.
Isso mudou sob a administração Biden:
Ordem Executiva sobre o Desenvolvimento e Uso Seguro, Seguro e Confiável da Inteligência Artificial (2023). Esta ordem executiva histórica é a peça mais significativa da política federal de IA nos EUA. Estabeleceu requisitos para a segurança, proteção e uso ético da IA em todo o governo federal e para infraestrutura crítica. As principais disposições incluem:
– **Relatório de segurança:** Exige que os desenvolvedores de modelos fundamentais (especialmente aqueles que representam riscos à segurança nacional) reportem os resultados dos testes de segurança ao governo.
– **Marca d’água:** Exige que o Instituto Nacional de Padrões e Tecnologia (NIST) desenvolva padrões para autenticação de conteúdo gerado por IA (marca d’água).
– **Proteções aos direitos civis:** Direciona as agências a garantir que os sistemas de IA não discriminem ou prejudicam as liberdades civis.
– **Competição e inovação:** Incentiva a competição no setor de IA e apoia P&D.
A Ordem Executiva concede às agências federais ampla autoridade para desenvolver suas próprias políticas de IA dentro de seus domínios respectivos.
Principais Participantes Federais
Instituto Nacional de Padrões e Tecnologia (NIST). O NIST lidera o desenvolvimento de padrões e diretrizes técnicas de IA. Seu Quadro de Gestão de Riscos de IA é amplamente adotado voluntariamente. O NIST também abriga o Instituto de Segurança de IA dos EUA.
Departamento de Comércio. Supervisiona o NIST e desempenha um papel fundamental no desenvolvimento de padrões voluntários de IA e na promoção da competitividade da IA nos EUA.
Federal Trade Commission (FTC). Usa sua autoridade existente para combater práticas desleais, enganosas ou anticompetitivas envolvendo IA. Foca na proteção ao consumidor, privacidade e antitruste.
Comissão de Oportunidades Iguais de Emprego (EEOC). Foca na prevenção da discriminação impulsionada por IA nas decisões de emprego.
Departamento de Saúde e Serviços Humanos (HHS) / FDA. Regula a IA em saúde e dispositivos médicos. A FDA tem estado particularmente ativa na aprovação de dispositivos médicos habilitados por IA.
Departamento de Justiça (DOJ). Investiga e processa casos em que sistemas de IA possam ser usados para violar direitos civis ou leis antitrustes.
Agência de Projetos de Pesquisa Avançada de Defesa (DARPA). Financia pesquisas de IA de alto risco e alta recompensa para aplicações de segurança nacional.
Iniciativas em Nível Estadual
Os estados estão cada vez mais ativos na política de IA, frequentemente à frente do governo federal:
Califórnia. Tem numerosos projetos de lei relacionados à IA propostos e debatidos, cobrindo desde IA em contratações até regulamentação de deepfakes e privacidade de dados. Dada a dimensão econômica da Califórnia, suas leis frequentemente definem tendências nacionais.
Colorado. Aprovou uma lei pioneira em 2024 regulamentando sistemas de IA “de alto risco” usados em seguros, empréstimos e emprego para prevenir discriminação.
Illinois. Exige transparência e consentimento quando a IA é utilizada em processos de contratação.
O crescimento da regulamentação de IA em nível estadual cria um mosaico de regras que as empresas devem navegar, adicionando complexidade.
Compromissos da Indústria
A Casa Branca garantiu compromissos voluntários de empresas líderes em IA (OpenAI, Google, Meta, Microsoft, Anthropic, etc.) para:
– Testar modelos de IA para segurança antes do lançamento
– Compartilhar informações de segurança com o governo
– Investir em cibersegurança
– Desenvolver marca d’água para conteúdo gerado por IA
– Priorizar pesquisa em IA para grandes desafios (clima, doenças)
Esses compromissos não são juridicamente vinculativos, mas representam um esforço da indústria para se autorregular e colaborar com o governo.
Principais Debates Políticos
Legislação vs. regulamentação. O Congresso deve aprovar uma lei abrangente de IA ou as agências devem continuar a regular sob a autoridade existente? O Congresso tem lutado para aprovar legislações significativas sobre tecnologia.
Segurança vs. inovação. Como equilibrar a necessidade de segurança em IA com o desejo de fomentar a inovação e manter a competitividade dos EUA.
Bias e equidade. Como garantir que os sistemas de IA sejam justos e não perpetuem ou amplifiquem preconceitos sociais existentes, especialmente em aplicações críticas como contratações, empréstimos e justiça criminal.
Privacidade. Como proteger a privacidade individual em uma era em que a IA pode processar vastas quantidades de dados pessoais. A falta de uma lei federal de privacidade abrangente nos EUA torna isso particularmente desafiador.
Segurança nacional. Como gerenciar os riscos e oportunidades de segurança nacional apresentados pela IA avançada.
Minha Opinião
A abordagem dos EUA para a política de IA é uma resposta pragmática a uma tecnologia em rápida evolução. Ela evita a rigidez da legislação abrangente em favor de regras flexíveis e adaptáveis que podem ser atualizadas à medida que as capacidades de IA avançam.
A desvantagem é a fragmentação e a incerteza. Empresas que operam nacionalmente precisam navegar por um labirinto de regras federais e estaduais. A falta de um único quadro regulatório claro cria desafios tanto para a conformidade quanto para a aplicação.
A direção é clara: o governo dos EUA está cada vez mais engajado na política de IA, e a era da autorregulação pura chegou ao fim. As empresas precisam prestar muita atenção às ordens executivas, orientações de agências e leis estaduais. Criar IA que seja demonstravelmente segura, justa e transparente não é mais apenas uma boa prática — é uma expectativa crescente.
🕒 Published: