
Por: Luis Fernando Prado*
Ontem, 17 de junho, tive a oportunidade de novamente contribuir ativamente com o debate regulatório sobre o Marco Legal de IA (o já famoso PL 2.338/2023).
Após minhas contribuições como especialista convidado no Senado no ano passado, as quais se encontram em parte superadas pelos aprimoramentos promovidos na versão do texto aprovado naquela casa, tive a oportunidade de retornar ao Congresso e, desta vez, falar em nome da Abria – Associação Brasileira de Inteligência Artificial junto à Comissão Especial de IA da Câmara dos Deputados.
O tema central foi “Proteção de Direitos Fundamentais e Novas Tecnologias”, o que me proporcionou uma oportunidade ideal para focar não nos riscos, já bastante explorados no debate regulatório até aqui, mas no lado profundamente positivo e transformador da inteligência artificial.
É comum que as discussões públicas sobre IA sejam dominadas por receios e riscos -preocupações válidas, é claro, mas que, isoladas, acabam deixando no escuro os benefícios que a tecnologia proporciona ao nosso país, inclusive como aliadas da efetivação de direitos fundamentais. Foi justamente esse equilíbrio que busquei trazer, apresentando exemplos concretos e palpáveis de soluções já existentes e aplicáveis ao contexto brasileiro (a maioria delas criadas por startups locais), que impulsionam direitos fundamentais.
Citei, inicialmente, a Plataforma Laura, uma solução brasileira que já salvou cerca de 24 mil vidas entre 2016 e 2020, ao prever em tempo real deteriorações clínicas como sepse em hospitais.
Em seguida, mencionei a Ortech, desenvolvida pela Orby, que utiliza inteligência artificial para emitir estímulos eletromagnéticos em terapias de reabilitação motora. É uma – fantástica – solução de IA brasileira aplicada à recuperação de movimentos em pacientes com AVC, Parkinson ou lesões medulares.
Na educação, destaquei a solução Letrus, que atua como corretora automatizada de redações, alinhada aos critérios do ENEM. Desde 2022, os alunos do 3º ano do ensino médio da rede pública do Espírito Santo passaram a utilizar a ferramenta e, apenas um ano após sua implementação, o estado apresentou melhoria relevante nas notas de redação.
No campo da inclusão social, mencionei duas ferramentas impactantes. O Hand Talk, com tradução automática para Libras, já traduziu quase 2 bilhões de palavras para a língua de sinais e rompe barreiras de comunicação para mais de 10 milhões de brasileiros com deficiência auditiva. Já o aplicativo Be My Eyes oferece independência visual a pessoas cegas, por meio de assistência ao vivo de voluntários e, mais recentemente, via chatbot (com GPT-4), funcionalidade que resolve até 90% das interações sem dependência de voluntários, como era antes.
Para mostrar que a IA pode ser importante aliada na proteção de crianças e adolescentes, trouxe à tona o exemplo da parceria entre UFMG e Polícia Federal, que usa inteligência artificial para identificar rapidamente crimes de abuso infantil. O sistema consegue classificar 30 mil fotos e 5 mil vídeos em poucas horas – trabalho que, até então, levaria semanas. Isso protege vítimas e também resguarda os agentes da exposição traumática.
No âmbito judicial e de proteção ao trabalhador, destaquei o Monitor do Trabalho Decente, uma ferramenta promovida pelo Conselho Superior da Justiça do Trabalho que identifica e prioriza análise de processos que envolvem violações graves, como trabalho escravo ou infantil.
Após ilustrar esse potencial positivo, enfatizei que qualquer avanço significativo em IA depende essencialmente do treinamento adequado com dados representativos da nossa sociedade. Nesse ponto, preocupa-me que estejamos desenvolvendo uma visão essencialmente negativa sobre o treinamento de IA (especialmente IA generativa, que depende de grandes massas de dados para funcionar bem) quando ele é parte importante na solução (ou mitigação) dos vários riscos e problemas citados na própria audiência pública (como vieses e discriminações ilícitos, por exemplo).
Quem defende uma maior restrição ao treinamento normalmente se apoia em argumentos favoráveis à proteção de direitos autorais ou mesmo proteção de dados pessoais, os quais, obviamente, são valores jurídicos a serem tutelados, inclusive porque representam direitos fundamentais. Ninguém vai defender o contrário.
Com a rápida e irreversível adoção da IA pela sociedade, especialmente diante da centralidade que os modelos generativos vêm assumindo, estamos diante de uma nova realidade que exige ponderação: até que ponto a proteção individual, seja ela de natureza autoral ou relacionada a dados pessoais, deve prevalecer sobre o interesse público de contar com modelos de IA bem treinados, que compreendam a sociedade brasileira e suas particularidades, justamente para que seus resultados sejam percebidos como éticos e socialmente aceitáveis pelas “pessoas afetadas”?
Nesse ponto, menção honrosa ao dep. Orlando Silva, que atento às questões debatidas na audiência pública, chegou a reconhecer que, se a LGPD (da qual foi relator) é um entrave ao tratamento de dados sensíveis necessário para mitigação de riscos de discriminação (racial) algorítmica, ela merece até ser alterada.
Sobre o texto atual do PL, apresentei minhas preocupações sobre a atual redação dos artigos relacionados aos direitos autorais (artigos 62 a 66) ao lembrar que praticamente todo conteúdo disponível publicamente é, potencialmente, protegido por direitos autorais – até mesmo este simples e despretensioso texto (nada jornalístico nem artístico) que você lê agora.
Apontei, ainda, que, na busca legítima por proteção, tais artigos de lei acabaram criando barreiras desproporcionais ao desenvolvimento da IA no Brasil. É como tentar impedir a cópia ilegal de um livro proibindo que alguém aprenda a ler. Penso que contornos para a solução a esse aparente impasse envolvendo direitos autorais começam a ser desenhados a partir de um melhor entendimento de como funciona o processo de treinamento de modelos de IA, notadamente IA generativa (que está no centro do debate).
Nesse ponto, tenho a esperança de que, ao aprofundarmos nossa compreensão sobre (i) a importância de dados representativos para um modelo de IA generativa que respeita direitos fundamentais e (ii) o fato de que tais modelos não armazenam cópias nem reproduzem conteúdo protegido por direito autoral, poderemos chegar a uma solução regulatória que melhor equilibre a proteção autoral com a necessidade de termos modelos treinados a partir dos dados acessíveis que forem necessários para a produção de bons e éticos outputs.
Caminhando para o final das minhas contribuições (e sem prejuízo daquelas que a Abria ainda enviará à Comissão), também destaquei a importância de que o Marco Legal de IA reconheça expressamente o treinamento de sistemas (ou modelos, para ser tecnicamente mais ajustado) como legítimo e necessário, reforçando-o como fundamento legal essencial para garantir segurança, transparência e não discriminação. Nesse sentido, propus também a inclusão explícita de diretrizes claras, que incentivem o Poder Público a disponibilizar dados representativos e diversificados para treinamento responsável e ético.
Por fim, em minhas considerações finais, aproveitei para alertar que o atual PL 2.338/2023 está fortemente inspirado no modelo europeu (AI Act), muito citado inclusive na audiência pública de ontem. No entanto, chamei atenção para o fato de que a própria União Europeia tem refletido se não foi longe demais nas suas restrições, enquanto outros países como Japão e Reino Unido adotaram abordagens regulatórias mais flexíveis e pragmáticas, que estimulam o desenvolvimento responsável da IA sem sufocar a inovação.
A IA pode ser, sem dúvidas, uma importante catalisadora de Direitos Fundamentais em inúmeros campos, mas isso dependerá do quanto quem desenvolve estará legalmente autorizado e seguro para treinar adequadamente seus modelos.
Como falei na audiência, criticar o treinamento da IA é o mesmo que criticar o ato de estudar já que alunos vão mal na prova. O problema do aluno que vai mal na prova está no estudo mal feito (normalmente a partir de informação insuficiente e limitada), sendo que a solução para isso é mais informação e mais estudo – e não menos. Espero, sinceramente, que o Brasil não tire nota vermelha na regulação de IA, e a Câmara tem um semestre letivo inteiro pela frente para não deixar que isso aconteça.
*Luis Fernando Prado é sócio do Prado Vidigal Advogados, membro do conselho consultivo e líder do Comitê de IA Responsável da Abria.
Veja aqui ou direto no vídeo abaixo a íntegra da Audiência Pública.
Leia aqui um resumo do evento.