PL da Inteligência Artificial prejudica desenvolvimento da tecnologia e a inovação no setor produtivo
A indústria defende a regulação do uso da Inteligência Artificial (IA) no Brasil, mas alerta que o Projeto de Lei 2.338/2023 cria obstáculos para o desenvolvimento tecnológico e a inovação no país. O texto apresentado nesta quinta-feira (4) na Comissão Temporária sobre Inteligência Artificial no Brasil (CTIA), no Senado Federal, tem avanços pontuais em relação às versões anteriores, mas mantém a estrutura e a base conceitual que resultam em um modelo regulatório com maior amplitude e rigor no mundo, o que coloca o país sob o risco de sofrer um isolamento e atraso tecnológico.
Lideranças industriais do país reunidas na Mobilização Empresarial pela Inovação (MEI) e na Confederação Nacional da Indústria (CNI) reconhecem a necessidade de coibir o mau uso da tecnologia, sobretudo no contexto das eleições e das redes sociais. Contudo, alertam que o PL excede no escopo ao regular a IA em si, fazendo a lei incidir desde a concepção e o desenvolvimento dos sistemas, em vez de dar relevância ao uso e às aplicações por grau de risco, como fazem os outros países.
O diretor de Tecnologia e Inovação da CNI, Jefferson Gomes, explica que a indústria está integrada à cadeia de valor da IA como fornecedora de insumos e criadora de infraestrutura, como energia, hardware, chips e sistemas operacionais; além de ser desenvolvedora de aplicações e usuária pioneira, junto aos setores de agro e serviços.
“O Brasil tem vantagens competitivas e a inteligência artificial tem grande potencial para impulsionar a produtividade na indústria. Mas a regulação prevista ignora os diferentes usos e riscos e impõe pesado aparato regulatório não só nas aplicações da IA, mas na pesquisa e no desenvolvimento da tecnologia. Corremos o risco de afugentar novos investimentos, prejudicar os projetos de IA do setor produtivo que nem sequer utilizam dados pessoais e levar o país a perder competitividade e a oportunidade de se inserir como importante player nas cadeias globais”, observa Jefferson Gomes.
Pontos mais críticos do texto
1) Regula da concepção ao desenvolvimento e à adoção dos sistemas de IA, e não apenas a implementação e o uso de aplicações por grau de risco, o que resulta em barreiras ao desenvolvimento científico e tecnológico da tecnologia;
2) Estabelece uma carta de direitos que precede e está dissociada da análise de risco da aplicação, em vez de estabelecer as obrigações do agente regulado perante o regulador. O modelo regulatório sui-generis voltado para direitos do cidadão leva à insegurança jurídica e à judicialização pela sobreposição com a legislação brasileira protetiva de direitos (CDC, LGPD, MCI, etc);
3) Cria carga de governança excessiva, mesmo para aplicações que não são de alto risco, além de intervenção externa em processos internos das empresas, o que viola segredos comerciais e industriais e a livre iniciativa;
4) Provoca sobreposição de competências regulatórias entre os órgãos centrais e uma autoridade central, que deveria coordenar do sistema, resultando em insegurança jurídica;
5) Há vício de iniciativa ao prever como órgão central a Autoridade Nacional de Proteção de Dados (ANPD), que ainda está em processo de estruturação para a proteção aos dados pessoais, e não possui competência técnica sobre IA ou políticas de inovação, como outros órgãos do governo mais aptos ao desafio.
O que a indústria propõe na regulação da IA
- Ajuste de escopo: a lei deve incidir sobre as aplicações dos sistemas, que é a etapa onde se materializam e podem ser avaliados, e não na concepção e no desenvolvimento, sob pena de barrar a inovação;
- Regulação por risco: a lei deve incidir sobre as aplicações de alto risco e excluir as de baixo e médio risco, especialmente as que não envolvem dados pessoais ou interação com seres humanos. Essa diferenciação é indispensável para o avanço da indústria 4.0, pois inúmeras aplicações de IA em processos industriais não têm riscos nem correlação com pessoas;
- Adequação do modelo regulatório: estabelecer obrigações do agente regulado perante o regulador e não de direitos do usuário sobre o prestador do serviço, que já estão presentes em marcos legais associados ao direito do consumidor e à prestação de serviços públicos. Apesar de avanços em relação ao primeiro texto apresentado, é preciso ampliar a descentralização e o papel das agências setoriais no Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA).
- Adequar a proposta ao contexto normativo e de políticas governamentais de estímulo à inovação, como a Estratégia Brasileira de Inteligência Artificial (EBIA) e o Plano de Ação de Política Industrial (PBIA);
- Abordar questões de governança, propriedade intelectual e impacto sobre pequenas e médias empresas de forma diferenciada, que pelo texto atual, podem enfrentar dificuldades devido a exigências desproporcionais de governança e auditoria externa dos sistemas de IA;
Essas prioridades foram defendidas na última reunião da MEI, ocorrida em junho, comandada pelo presidente da CNI, Ricardo Alban, e pelo coordenador da MEI, Pedro Wongtschowski. Participaram dos debates 253 representantes da indústria, da academia e do governo. No encontro, 61 lideranças do setor assinaram um posicionamento com pontos de atenção e propostas de melhoria ao PL 2.338/2023, entre elas representantes da Embraer, Tupy, Grupo FarmaBrasil, Volkswagen, BASF, Rockwell e IBM.
Potencial da IA no Brasil
O Brasil tem dois grandes diferenciais competitivos para desenvolvimento e uso da IA:
- O tamanho e a heterogeneidade da população, que pode alimentar com informações as bases de dados que treinam as aplicações de IA generativa;
- A matriz energética limpa para atender a demanda dos datacenters. Os países estão buscando descarbonizar seus processos produtivos direcionando a produção para regiões que oferecem energia limpa, segura, barata e abundante, como o Brasil – movimento conhecido como powershoring.
Como está a regulação nos outros países
União Europeia: regulação por riscos. Somente as aplicações de alto risco têm restrições e condicionalidades mais severas. O uso de IA é vedado nas situações de risco inaceitável, em que a decisão humana é indispensável, como é catalogação e hierarquização social de pessoas. Uma cirurgia assistida por robôs também é considerada de alto risco e, portanto, sujeita à comprovação de condições rigorosas para ser comercializada. Já aplicações de risco limitado, como chatbots baseados em IA, têm maior flexibilidade nas condições mínimas para operação no mercado.
Reino Unido: ponderação maior está em reconhecer os benefícios da IA avançando nos mecanismos de regulação a par e passo com os dos estudos e as práticas, com foco sempre no uso e não na tecnologia.
Estados Unidos: o foco tem sido evitar o excesso regulatório, caminhando para cultura da autorregulação, em que princípios são declarados e a sequência é responsabilidade das empresas.
Japão: caminha na mesma linha dos EUA, de soft law de modo a não prejudicar a inovação.
Cingapura: a regulação tem como objetivo garantir boas práticas responsáveis em IA com certificações mundialmente reconhecidas, como o ISO/IEC 42001:2023, primeira norma global para a gestão de IA responsável, tecnicamente atualizada e que pode sofrer alterações sempre que a evolução tecnológica exigir.