Gabinete de Alexandre Freire na Anatel estabelece regras para uso de IA

O conselheiro Alexandre Freire estabeleceu para seu gabinete uma portaria interna com regras de uso de Inteligência Artificial pelos servidores, no âmbito das tarefas do gabinete. Segundo a portaria, "as ferramentas de IA podem ser empregadas como um recurso complementar às atividades realizadas no Gabinete", mas "é estritamente vedado o emprego de ferramentas de IA para a tomada de decisões em processos distribuídos ao Gabinete". Além disso, "as partes e terceiros interessados, ao apresentarem requerimentos, recursos,
pareceres, memoriais ou outros após de manifestações, devem declarar expressamente se houve o emprego de IA na sua elaboração". Ainda segundo a portaria, "a não observância desta determinação poderá implicar na devolução da peça e dos documentos para adequação"

A portaria tem ainda regras internas. Segundo a norma, o uso de Inteligência Artificial requer, obrigatoriamente, "uma avaliação prévia da conformidade ética" incluindo "relatório de impacto algorítmico em projetos que envolvam o uso de Inteligência Artificial (IA)". Esta análise é necessária também para soluções desenvolvidas especificamente para uso do gabinete. Os servidores devem seguir às seguintes diretrizes no uso de IA:

I – respeito aos direitos fundamentais: assegurar que utilização da IA não prejudique o devido processo legal procedimental e substancial, os direitos fundamentais da pessoa humana e a autonomia regulatória da Anatel;
II – justiça: garantir que o conteúdo dessas ferramentas não inclua ou amplifique vieses e que esteja em conformidade com os direitos humanos, acessibilidade, além de cumprir com as obrigações de equidade processual e substantiva;
III – necessidade: garantir que o uso de ferramentas de IA generativa atenda às necessidades dos usuários e da organização, promovendo resultados aprimorados para os cidadãos brasileiros, por meio da identificação das ferramentas apropriadas para a tarefa, uma vez que os instrumentos de IA nem sempre representam a melhor escolha em todas as situações;
IV – cibersegurança: assegurar que a infraestrutura, o armazenamento e as ferramentas sejam adequadas a um ambiente tecnicamente e juridicamente seguro, garantindo a proteção da confidencialidade, da privacidade, e da procedência das informações pessoais dos agentes envolvidos;
V – transparência: identificar o conteúdo produzido por meio de IA generativa, informando aos usuários que estão interagindo com uma ferramenta de IA, além de fornecer a documentação das decisões e explicações sempre que as ferramentas forem utilizadas para apoiar o
processo de tomada de decisões;
VI – responsabilidade e prestação de contas: assumir a responsabilidade pelo conteúdo gerado por ferramentas de IA, o que compreende assegurar que o seu uso seja factual, legal, ético, que esteja em conformidade com os termos de uso e que houve supervisão humana tanto durante a utilização da ferramenta de IA quanto sobre o resultado obtido;
VII – letramento: adquirir conhecimento sobre as potencialidades, limitações e uso responsável das ferramentas; aprender a criar instruções eficazes e identificar possíveis fragilidades nas saídas geradas;
VIII – assertividade: usar dados de fontes certificadas ou verificadas no tratamento dos dados empregados pela Anatel em aplicações de IA; e;
IX – supervisão humana: assegurar que os integrantes do quadro de pessoal da Anatel sejam cientificados da necessidade de verificação de quaisquer resultados gerados por aplicações de IA que possam ser utilizadas no exercício de suas atribuições.

Notícias relacionadas

Segundo a Portaria, caso se verifique que um determinado algoritmo "causou situação de discriminação, injustiça ou perpetuação de vieses, seu uso será imediatamente suspenso e as decisões tomadas com seu auxílio serão revistas". Segundo a medida,  o uso de ferramentas de IA que envolvam o tratamento de dados pessoais sensíveis sem autorização expressa do titular está vedado.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui
Captcha verification failed!
CAPTCHA user score failed. Please contact us!