Regulação de inteligência artificial precisa de abordagem contextual, defendem especialistas

A Inteligência Artificial (IA) quase foi tema debatido durante a última Plenipotenciária da União Internacional de Telecomunicações (UIT), mas acabou ficando para próximos encontros por ainda precisar de amadurecimento. Mas a complexidade do assunto requer um conhecimento amplo sobre qual abordagem regulatória e de política pública poderia ser a mais correta, considerando o potencial de disrupção da tecnologia. Carlos Affonso Souza, do ITS/Rio, entende que é necessário pensar em uma eventual regulação futura para a IA de forma contextualizada, com base não apenas na legislação, mas em uma lógica econômica de mercado, na sociedade e na própria tecnologia, além de ser "pareado com ética". Ele cita casos como do Japão, onde o governo instituiu estratégias nacionais para a robótica e para a IA. Em ambas, há a ideia de que o cidadão precisará se acostumar com a presença da máquina no dia a dia. Já na China, o plano tem um viés econômico: até 2020, aumentar o nível de investimentos; até 2025, ter criações chinesas na área; e em 2030, já ter a dominação global na área.

Nos Estados Unidos e na Europa, Souza explica que há uma movimentação para dar um tratamento jurídico ao tema. No caso do norte-americano, já há precedentes (em casos da Amazon e da Baidu) de tratamento de algoritmo e de inteligência artificial fundamentados na Primeira Emenda da Constituição, que garante a liberdade de expressão. No caso europeu, há a discussão no Parlamento de se dar uma "personalidade jurídica a robôs inteligentes". Mas há problemas de responsabilidade, como em caso de carros autônomos, por exemplo.

Carlos Afonso chama atenção em especial para o impacto da assimetria de informações, que deverá ser endereçada com ajuda de especialistas da academia para fazer uma espécie de "tradução" do assunto para o público em geral. "A visão sombria de algoritmos e dados pessoais acaba jogando a gente para um lado da história, e é importante ter visão mais equilibrada do assunto", declara.

Notícias relacionadas

O professor da FGV/RJ Luca Belli cita a definição da Inteligência Artificial de Andrew Moore, diretor de ciências computacionais da Universidade de Carnegie Mellon, nos EUA: é um processo que permite desenvolvimento de sistemas computacionais que automatizam uma tarefa que antes precisava de interferência humana. Nesse contexto, pondera se a ascensão da IA é positiva ou negativa: "Na verdade depende, entre a visão utópica e apocalíptica, há nuances". Ele explica a inteligência vem a partir de um banco de dados inicialmente escolhido por humanos. "A visão do [futuro como do filme] Terminator parece piada, mas se os únicos dados que o robô receber são dos filmes Terminator e O Podereoso Chefão, o robô aprende com machine learning e vai ser extremamente agressivo. Não é piada, é possível."

Ele sugere que a IA poderia seguir preceitos éticos com base na conduta e comportamento, da mesma forma como humanos. Ainda assim, lembra que os algoritmos que compõem a "caixa preta" da máquina podem ter viés, citando o "algoritmo do Facebook não determina só as notícias que lemos, mas em quem vamos votar nas próximas eleições". Por isso, pede por mecanismos de transparência para instruir a população. "Não podemos partir do pressuposto de que o algoritmo é sempre eficiente. Pode ser, mas pode ter consequências nefastas", reitera. Belli explica que é preciso um sistema de governança "sólido e adequado", com supervisão humana e responsabilidade por possíveis erros. Para tanto, entende que é necessário um monitoramento e auditoria regular dos algoritmos para "eliminar ou mitigar o viés". O assunto foi tema de debate do Seminário Internacional da ABDTIC, realizado nesta terça-feira, 11, em São Paulo, e organizado pela Associação Brasileira de Direito das Tecnologias da Informação e das Comunicações, em parceria com a Teletime.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui
Captcha verification failed!
CAPTCHA user score failed. Please contact us!