O presidente dos Estados Unidos assinou nesta semana um decreto que orienta as empresas norte-americanas sobre a implementação de medidas que mitiguem os riscos do uso da Inteligência Artificial (IA).
O decreto estabelece novos padrões para a segurança da IA, a proteção da privacidade dos norte-americanos, a promoção da equidade e dos direitos civis, a defesa dos consumidores e dos trabalhadores e para o estímulo da inovação e a concorrência, segundo a gestão dos Estados Unidos.
O País é sede de parte das empresas que hoje utilizam a tecnologia, com alto impacto na sociedade, como Google, Meta, Microsoft e a Open AI, dona do ChatGPT.
A agenda proposta pelo governo Biden inclui um Projeto para uma Declaração de Direitos de IA, com:
- Atribuição de responsabilidade para os desenvolvedores de IA de compartilhamento de testes de segurança e de informações com o governo norte-americano;
- Definição de padrões rigorosos para testes com as equipes desenvolvedoras, para garantir segurança antes da tecnologia ir a público;
- Medidas e ações que mitiguem fraudes e erros. Nessa parte, caberá ao Departamento de Comércio dos EUA criar orientações como rótulos e marca d'águas que facilitem a identificação dos conteúdos criados por IA;
- Orientações para uso seguro de IA por militares dos EUA, garantindo uma forma segura e eficiente nas missões militares.
O texto publicado por Biden também prevê que os Estados Unidos podem fazer parcerias com outros países e organizações para assegurar que a IA seja segura e confiável.
Brasil
No Brasil, uma regulamentação para a inteligência artificial também está em discussão. O relator da Comissão Temporária Interna sobre Inteligência Artificial (IA) do Senado Federal, Eduardo Gomes (PL/TO), alertou, durante audiência pública, nessa quarta-feira, 1º, que será preciso fazer "uma lei viva, minimalista, mas eficiente" que trate de Inteligência Artificial no Brasil. Segundo o parlamentar, o Congresso deverá usar como exemplo a Lei Geral de Proteção de Dados, aprovada nos últimos anos.