Consulta pública de IA expõe divergências sobre legislação do tema

[Publicado no Mobile Time] A consulta pública sobre a elaboração de uma Estratégia Brasileira de Inteligência Artificial foi encerrada na última segunda-feira, 2 de março, tendo recebido mais de 300 contribuições de diversas associações, empresas privadas e pesquisadores ao longo de dois meses e meio. Participaram associações, entidades e ONGs como Abinee, Abranet, Artigo19, Brasscom, Câmara de Comércio dos EUA, Conselho Empresarial Brasil-Estados Unidos, CTS-FGV, Febraban, I2AI, Idec, IEA/OIC/USP, InternetLab, Movimento Brasil Competitivo, NIC.br e ITS-Rio. Entre as empresas privadas, se destacam IBM, iFood, Intel e Telefônica.

De iniciativa do Ministério da Ciência, Tecnologia, Inovações e Comunicações (MCTIC), a consulta pública expôs uma divergência marcante na sociedade brasileira quanto à necessidade ou não, neste momento, de se criar leis para nortear o desenvolvimento da inteligência artificial e a profundidade das mesmas. Analisando-se os comentários enviados, fica clara a seguinte divisão: de um lado o setor privado, preocupado com a possibilidade de leis demasiadamente restritivas prejudicarem o desenvolvimento e a inovação em IA no Brasil; e de outro, pesquisadores, ONGs e entidades de defesa do consumidor demandando que sejam estipuladas, sim, regras, especialmente para que os direitos humanos sejam protegidos dentro das soluções de IA que estão surgindo. Claro que as empresas também falam da importância de se ter uma IA inclusiva e que respeite os direitos humanos, enquanto também há pesquisadores e outros especialistas preocupados em viabilizar a inovação, mas, a grosso modo, é possível notar a referida divisão pelo menos na ênfase conferida por cada grupo em relação a tais questões.

Em vez de uma lei geral para IA, associações do setor privado e algumas empresas propõem regulamentações pontuais e setoriais. Serve de exemplo uma das contribuições assinadas pela Abinee (Associação Brasileira da Indústria Elétrica e Eletrônica): "a Abinee esclarece sua preocupação – nesse momento – com a discussão e adoção de um marco normativo para o desenvolvimento e uso de IA no Brasil tendo em vista as características ainda desconhecidas dessa tecnologia. Qualquer iniciativa normativa sobre o desenvolvimento e uso de IA nesse momento poderá levar a consequências imprevistas e a gargalos no desenvolvimento e adoção dessa tecnologia. Entendemos, também, que na medida em que os sistemas de IA passem a ser incorporados nas várias atividades e setores econômicos, que estudos setoriais poderão apoiar considerações em cima de uma regulação setorial sobre a adoção de bases normativas especificas para alguns setores, de acordo com o respectivo ordenamento setorial."

Notícias relacionadas

O Movimento Brasil Competitivo segue linha parecida com a da Abinee e fala em autorregulação: "para promover um ambiente institucional e regulatório propício à inovação e ao desenvolvimento tecnológico, dada sua natureza de rápida evolução, temos um cenário no qual a regulamentação é complexa e propensa a se tornar obsoleta rapidamente. Sendo assim, cabe ao governo avaliar este cenário e refletir antes de adotar novas leis, regulações, ou controles que possam impedir o desenvolvimento e uso responsáveis da IA. Aconselhamos que a melhor abordagem seria o governo combinar o estímulo à autorregulação por parte dos agentes e dos diferentes ecossistemas que envolvam o uso de IA com eventuais regulações que sejam precisas e pontuais, de preferência setoriais, quando for pertinente para mitigar eventuais riscos relativos ao uso da IA em situações específicas."

Entre as empresas que participaram diretamente da consulta pública, a Telefônica/Vivo externou a mesma preocupação: "A Telefônica entende, portanto, que a regulamentação ex post seja a abordagem mais adequada no atual cenário e estágio de maturação da IA. Da mesma forma, a Telefônica avalia como prematura e potencialmente danosa a criação de uma estrutura institucional dedicada exclusivamente à supervisão de aplicações em IA por parte do Estado. Como alternativa, sugere-se a criação de fóruns intersetoriais com o intuito de se estabelecer ampla e inclusiva discussão sobre o tema, que envolvam as diferentes partes interessadas e onde possam ser tecidas recomendações para o uso adequado da IA nos mais diversos setores."

O iFood, por sua vez, espera que a governança de IA não seja "burocrática e restritiva" ou que "impeça o desenvolvimento de novos negócios e novas tecnologias".

Integração

O NIC.br lembrou da necessidade de integração entre a Estratégia Brasileira de IA e outras iniciativas governamentais e leis já estabelecidas, como a Estratégia Brasileira para a Transformação Digital, o Programa de Inovação Educação Conectada, a Lei Geral de Proteção de Dados Pessoais (LGPD), o Plano Nacional de IoT e a Estratégia de Governança Digital (e-GOV).

A Abranet destacou a importância de o governo federal dialogar com o poder legislativo na elaboração da  Estratégia Brasileira de IA , haja vista que existem pelo menos quatro projetos de lei em tramitação sobre o tema, dois no Senado Federal e dois na Câmara dos Deputados. "Da perspectiva da Abranet, a convergência entre os esforços dos Poderes Executivo e Legislativo geraria efeitos positivos para o País e seria essencial para assegurar a estabilidade e a segurança jurídicas que o setor privado e a comunidade científica necessitam para seguir avançando com o desenvolvimento e a utilização das referidas tecnologias. Espera-se, inclusive, que a combinação entre a presente Consulta Pública e os debates típicos do processo legislativo ofereçam as oportunidades necessárias para que o setor privado possa contribuir significativamente para a definição dos rumos da política brasileira de IA."

Proteção de direitos

O Centro de Tecnologia e Sociedade da FGV (CTS-FGV) destacou que o Brasil aderiu aos princípios enunciados pela OCDE para o desenvolvimento ético e de governança de IA, que pressupõem, entre outros pontos, que os sistemas de IA: 1) promovam o crescimento inclusivo, o desenvolvimento sustentável e o bem-estar; 2) sejam projetados de maneira a respeitar o Estado de Direito, os direitos humanos, os valores democráticos e a diversidade, liberdade, dignidade, autonomia, privacidade e proteção de dados, equidade, justiça social e direitos trabalhistas; 3) ofereçam transparência e explicabilidade. "Recomenda-se, inicialmente, que a legislação brasileira faça referência esses standards", diz o comentário do CTS-FGV.

O Idec, entidade de defesa do direito do consumidor, ressaltou que "além de ser centrada no ser humano, essa tecnologia (IA) deve ser transparente, acessível, não-discriminatória e não-excludente, inclusive reconhecendo a vulnerabilidade do consumidor (art. 4º, inc. I, CDC) e a hipervulnerabilidade de alguns grupos marginalizados e mais afetados por essas tecnologias, nos termos do art. 3º da Constituição Federal." E expressa a necessidade de regras para a responsabilização de desenvolvedores: "deve-se fazer uma análise concorrencial da tendência oligopolista desses mercados e devem ser impostos deveres de prestação de contas, com imposição de regras de responsabilidade de seus desenvolvedores. Ademais, suas regras e seus riscos devem ser periodicamente submetidos à revisão, considerando o potencial inovador e disruptivo destas tecnologias. É importante compreender que a sociedade não está fadada a ser condenada ao desenvolvimento descontrolado das tecnologias, mas pode determinar suas delimitações e assegurar o cumprimento de standards mínimos, especialmente de não-discriminação, de proteção ao consumidor e de proteção a direitos humanos."

O Observatório da Inovação e Competitividade do Instituto de Estudos Avançados da Universidade de São Paulo (OIC/IEA/USP) sugeriu a adoção de um código de ética sobre IA por parte de grandes empresas, universidades públicas e privadas e órgãos públicos. Recomenda também a criação de mecanismos internos, como um "ombudsperson", para receber denúncias e críticas, internas e externas, sobre a adoção de IA, e "que sejam criadas estruturas de governança interna, que avaliem com autonomia o risco de novas descobertas, processos ou produtos, que acompanhem seu design, padrões e seus testes, de modo a garantir transparência do que é apresentado à sociedade como inovação".

Os destaques acima são apenas uma amostra selecionada por Mobile Time dos mais de 300 comentários recebidos durante a consulta pública. O documento completo está disponível neste link.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui
Captcha verification failed!
CAPTCHA user score failed. Please contact us!