Deixar que as empresas autorregulem o uso da inteligência artificial criaria um cenário de 'faroeste', afirma Dragos Tudorache, correlator da legislação da União Europeia que deve ser a primeira do mundo a colocar regras no uso dessa tecnologia

Deixar para as empresas a tarefa de impor limites e regras ao uso de inteligência artificial (IA) não só é insuficiente, como pode trazer riscos para a ordem econômica e social. Essa é a avaliação do eurodeputado romeno Dragos Tudorache, relator do projeto que deve ser o primeiro do mundo a regular a tecnologia. Contar apenas com a "autodisciplina e a autoconsciência" das empresas seria como estar em um "faroeste", diz o parlamentar, em entrevista ao GLOBO.

A versão inicial da Lei da IA foi aprovada em junho e a expectativa é que a votação final aconteça até o fim do ano. Assim como outros marcos regulatórios que nasceram no Parlamento Europeu, como o GDPR, para proteção de dados, a legislação deve inspirar novas leis para a IA ao redor do mundo, incluindo o Brasil. Por aqui, o tema está em debate no Senado Federal, com o PL 2.338/2023.

Apesar da proposta estar em discussão desde 2021, quando a Comissão Europeia propôs a Lei da IA, o debate ganhou mais atenção com a aceleração do uso de IAs generativas ao redor do mundo, a partir do lançamento ao público do ChatGPT, criado pela OpenAI. Para Tudorache, a sociedade começou "a ver mais os riscos" que a IA pode trazer.

Sistemas algoritmos discriminatórios que criam pontuações sociais, como acontece na China, e o uso da IA para monitorar locais públicos, por biometria facial, são duas das aplicações da tecnologia consideradas inaceitáveis pela nova legislação europeia. Já a IA usada em games ou em filtros de e-mails, terá menos obrigações legais.

A definição das regras pelo texto é orientada pela chamada "abordagem baseada em risco". Na prática, haverá exigências maiores para inteligências artificiais com mais potencial de danos e menores nos casos considerados menos problemáticos. Alguns sistemas serão totalmente banidos, como o de pontuações sociais.

Ao GLOBO, o eurodeputado explica ainda o que muda para as redes sociais que usam IA em seus algoritmos, conta como os parlamentares determinaram os níveis de riscos envolvidos na tecnologia e defende porque é preciso haver um arcabouço jurídico que coloque regras na inteligência artificial - e logo.

Por que regular a inteligência artificial agora?

Nós já tivemos outras revoluções industriais e transformações fundamentais em setores econômicos, mas a inteligência artificial é diferente de tudo que já vivemos. O impacto é muito mais profundo e também é geral.

Não há nada em nossa sociedade e na forma como a economia opera que não será impactado pela inteligência artificial em graus menores ou maiores. Existem muitos benefícios, com certeza, mas também existem riscos.

Agora a sociedade começou a ver mais e mais os riscos que os aplicativos de IA podem trazer. A falta de segurança no uso de IA ameaça a ordem social, a evolução da nossa economia e até a estabilidade de nossas democracias. A regulação é uma resposta à expectativa da sociedade de que coloquemos as barreiras certas nos lugares certos.

E por que não deixar que as empresas façam uma autorregulação sobre o uso de inteligência artificial?

A autorregulação não é suficiente. E é verdade que já existem várias tentativas de colocar princípios (para o avanço da IA). A OCDE tem princípios sobre IA, a Unesco tem princípios sobre IA e muitas empresas têm princípios para uso de IA.

Mas então por que não deixar que as empresas se deixem guiar por esses princípios e façam uma autorregulação? A primeira parte dessa resposta é: porque uma autorregulação vai criar um jogo desigual.

Porque algumas empresas podem escolher ser éticas, conscientes e morais na maneira como respeitam esses princípios, e outras não. E aí, em um ambiente competitivo, em vez de ter uma corrida para um padrão alto, você pode ter o oposto.

Mesmo que tenha uma empresa que opte por ser ética sobre como ela desenvolve a IA, se eu vejo que minhas concorrentes não são como eu, minha tendência é baixar o nível e não melhorar meus padrões.

O que aconteceu com a IA aqui na Europa, ao contrário de todas as outras leis digitais que tivemos nos últimos anos, é que, em geral, sempre havia uma rejeição da indústria, que alegava que não precisava desse tipo de norma.

Dessa vez, tivemos consistentemente a própria indústria vindo e dizendo que uma regulação era necessária. Precisamos de um padrão porque descobrir sozinho o que é bom e o que é ruim é um nível de responsabilidade que essas empresas não podem carregar sozinhas. Resumindo, é por isso que, pelo menos aqui na Europa, acreditamos que as regras são necessárias.

A União Europeia está avançada no processo de criar uma regulação para a IA, mas o mesmo não acontece em boa parte do mundo. Quais os riscos de um controle para essa tecnologia demorar a chegar?

Existe um risco para o status quo que é o de você ter uma desigualdade enorme em como a inteligência artificial será desenvolvida, sem garantia nenhuma de como os riscos estão sendo gerenciados. Existe um potencial enorme de a inteligência artificial criar injustiças em nossa sociedade.

Se eu for a um banco e ter o crédito recusado com base em um algoritmo - que os bancos já usam em todo o mundo -, eu não tenho como saber porque aquele algoritmo rejeitou minha solicitação e aceitou a um pedido do meu vizinho. Ainda mais se eu for uma pessoa negra e meu vizinho, não.

A mesma coisa vale para uma IA usada em escolas, por exemplo.Isso sem mencionar os riscos mais fundamentais para a Humanidade vindos de modelos de fundação de IA e grandes modelos de linguagem.

Todas essas coisas, sem regras, simplesmente contando com a autodisciplina e a autoconsciência das empresas, seria como estar em um faroeste. E nós sofreríamos as consequências mais tarde.

Isso foi o que aconteceu com as redes sociais, que nós permitimos que florescessem sem nenhum tipo de regra. Agora estamos nos perguntando porque a sociedade está tão polarizada, porque temos tanta desinformação e porque existem tantas bolhas onde as pessoas se radicalizam.

Não temos essas respostas das redes sociais, nem os motivos de determinados conteúdos serem amplificados em detrimento de outros. É por isso que a ausência de regras, pelo menos para nós, como europeus, não é uma opção.

Existem muitas previsões alarmistas sobre o futuro da inteligência artificial e um risco "existencial" que a tecnologia poderia ter para a humanidade. Acho curioso que você esteja trazendo aqui problemas que estão mais no presente, como a descriminação algorítmica e a desinformação…

Na verdade, esse também é um risco. As ameaças existenciais para a Humanidade são sérias e precisam ser enfrentadas também. Mas é bom lembrar que também existem os problemas cotidianos em nossas vidas, que têm de ser encarados.

Assim como a IA pode nos impactar positivamente e trazer diversos benefícios para as nossas vidas, nós temos de estar cientes de que existem implicações diárias que vêm com a interação com a inteligência artificial, que podem afetar nossos direitos como indivíduos e para o qual precisamos nos proteger.

A regulação da IA pela União Europeia definiu uma escala de riscos para inteligência artificial, com regras que variam de acordo com a aplicação da tecnologia, que vão de "mínimo" até "risco inaceitável". Como vocês chegaram nessa abordagem?

A abordagem baseada no risco, como a chamamos, foi resultado de nossa busca por maneiras de como poderíamos regular a IA. Nós não queríamos regular a tecnologia em si porque sabemos que ela é apenas uma ferramenta e, como tal, ela é neutra. A forma como a IA é usada que é a grande questão.

Nós começamos, então, olhando para os usos e não para a inteligência artificial em si. Esse é o primeiro ponto. Depois, nós não queríamos criar regras de forma indiscriminada e para usos que não precisavam ser regulados. Por isso o foco nos riscos. Como nós chegamos aos que são inaceitáveis?

Olhando para os direitos fundamentais e como o interesse humano poderia ser protegido. Depois, nos debruçamos nas consequências que seriam tão graves aos nossos direitos individuais que nós simplesmente não poderíamos aceitar.

Um dos usos que a Lei da IA considera inaceitável é o de sistemas de reconhecimento facial em locais públicos. Por quê?

Primeiro, não estamos proibindo a tecnologia de reconhecimento biométrica em si. O que nós estamos proibindo é o uso dela de forma indiscriminada em locais públicos, 24 horas por dia, para monitoramento. Basicamente porque não está alinhado aos nossos valores de privacidade e respeito aos direitos fundamentais. Esse é um exemplo de uso de inteligência artificial que entendemos ser inaceitável.

Essa foi também um dos pontos que mais gerou controvérsias em nossos debates. Até agora, metade do Parlamento Europeu acredita que deveria haver exceções a essa proibição.

Outro exemplo é o uso da IA para pontuação social, como acontece na China, em que cada cidadão é classificado com base em seu comportamento on-line e off-line, o que determina se alguém pode ter acesso a benefícios e serviços.

Novamente, isso é algo tão diferente de como entendemos que deve ser o papel do Estado, que a IA para pontuação social também foi proibida.

Vocês também definiram como "alto risco" os sistemas de IA aplicados para recomendação em plataformas de rede social, incluindo aqueles que podem gerar influência política para eleitores. O que vai mudar para as redes sociais, que já usam inteligência artificial em seus algoritmos de recomendação há algum tempo?

Por fazerem parte da categoria de alto risco, elas terão mais obrigações, como a exigência de haver transparência sobre os dados que estão usando para treinar seus algoritmos. Elas também terão de explicar os parâmetros desses algoritmos, ou seja, explicar suas recomendações e as instruções dados aos algoritmos.

Vamos entender, finalmente, porque os algoritmos de mídia social estão amplificando determinados conteúdos e outros não. Isso significa que todas as suposições que nós temos por trás dos algoritmos do Facebook ou do Twitter, por exemplo, terão de ser explicadas.

A partir disso, se virmos algo errado, podemos intervir. Caso (a lei) não seja cumprida, as sanções podem ser a retirada do mercado ou aplicação de multas que podem chegar a até 7% da receita global da empresa, o que não é pouco.

Como foi a reação das grandes empresas que, hoje, estão liderando a corrida pela IA, diante das discussões no Parlamento? O CEO da OpenAI, Sam Altman, chegou a ameaçar a retirada da empresa da União Europeia…

Nós conversamos com todo mundo. Eu, como relator, mantive minha porta aberta para todas as partes interessadas, até porque nós, como legisladores, precisávamos entender sobre o que iríamos decidir.

Foi muito importante para nós todos ouvir os prós e contras da tecnologia, como funciona, saber exatamente como escrever as regras. Então nós ouvimos todos. Mas, em última análise, nosso julgamento é nosso julgamento.

Todos enviaram suas contribuições. Ouvimos todos, lemos a contribuição de todos e, no final do dia, decidimos. Nós também temos regras muito claras no parlamento sobre como interagir com partes interessadas, seja a indústria, seja a sociedade civil, seja a academia.

Todos certamente virão e trarão informações para tentar influenciar o debate. Cabe ao legislador determinar o que fazer com essa informação e como usá-la.

Parte da indústria considera que a regulação pode enfraquecer o setor de tecnologia na Europa e desacelera a inovação. Como vocês levaram em consideração esse impacto?

Sempre há um impacto quando novas regras entram em vigor. O que nós fizemos para balancear a inovação e o interesse público foi tentar reduzir o custo com compliance o máximo possível.

Não incluímos, por exemplo, a avaliação de conformidade por terceiros, o que aumentaria imensamente os custos das empresas com auditoria, que iriam bater o martelo sobre as práticas das companhias. Por tanto, estamos trabalhando com base na autoavaliação, com diretrizes para que isso aconteça.

Nós também criamos sandboxes, onde as pequenas empresas podem interagir com os reguladores, cometer erros e alcançar a conformidade, de forma gratuita. Também temos normas técnicas, que serão escritas com a indústria, para ajudar startups e engenheiros que não têm advogados em suas equipes. Tudo isso foi feito para que a lei também garanta a inovação.

A relatoria da Lei da IA foi inusual, já que contou com dois parlamentares, de espectros ideológicos distintos. Como vocês fizeram para chegar a um acordo para a regulação, levando em consideração as diferentes forças políticas no Parlamento?

Certamente não tem sido simples. Até porque a lei em si é muito complexa e, de longe, este é o texto mais importante que foi discutido no mandato deste Parlamento. Tivemos um recorde de emendas no texto, o maior número de emendas de todos os tempos para uma legislação do Parlamento Europeu.

Também tivemos dois relatores, o que é incomum. Geralmente há apenas um relator, dessa vez tivemos eu, um liberal, e um socialista Travamos diversos debates, mas no final das contas conseguimos fechar um acordo que acho que é muito bom e conseguiu alcançar uma maioria forte.


Fonte: O GLOBO