Lei de 1996 dá às empresas de tecnologia o poder de moderar conteúdo gerado por seus usuários, mas ao mesmo tempo as isenta de assumir responsabilidades por eles

Os advogados do Google, Facebook e Twitter vão nesta terça e quarta-feira defender suas empresas na Suprema Corte dos Estados Unidos. Com eles, o futuro da Internet tem um encontro marcado perante os juízes. 

Serão realizadas duas audiências orais, as dos casos Gonzalez vs. Google e Twitter vs. Taamneh. Eles questionam o escopo da seção 230, a regra que serviu como pedra angular da Internet como a conhecemos hoje. Essa regra basicamente dá às empresas de tecnologia o poder de moderar o conteúdo gerado por seus usuários, mas ao mesmo tempo as isenta de assumir responsabilidades por ele.

Ambos os casos estão relacionados ao terrorismo, e a pergunta que está por trás deles é: redes sociais como YouTube (de propriedade do Google), Facebook e Twitter não são responsáveis ​​por impedir que a propaganda terrorista se espalhe na Internet? A seleção desses dois casos sugere que os juízes querem esclarecer a isenção de responsabilidade que a lei dá às empresas de tecnologia por conteúdo de terceiros.

A frase-chave da seção 230 da Lei de Decência nas Comunicações afirma: "Nenhum provedor ou usuário de um serviço de computador interativo deve ser tratado como um editor ou disseminador de informações fornecidas por outro provedor de conteúdo de informações." 

Com base nisso, as plataformas ficam isentas de responsabilidade sobre o conteúdo de seus usuários. É uma lei de 1996, quando as empresas de Internet ainda eram pequenas e parecia apropriado protegê-las.

A regra é aplicável a redes sociais como Facebook, YouTube, Twitch ou Twitter, mas vai muito além. Numerosos recursos do Google, TripAdvisor, Yelp, Reddit, Craigslist, Apple ou Microsoft dependem de alguma forma das contribuições de seus usuários, e esse escudo de responsabilidade tem sido fundamental para o florescimento de seu conteúdo. Essas empresas têm aparecido nos casos para defender sua posição em uma frente comum.

Nohemi Gonzalez, uma estudante universitária americana de 23 anos, foi uma das 131 pessoas mortas por terroristas do Estado Islâmico em uma série de ataques que abalaram Paris em 13 de novembro de 2015, na casa de shows Bataclan e em outros locais da capital francesa. Gonzalez foi assassinada em um restaurante onde jantava naquele dia, e seus parentes processaram o Google.

Reynaldo Gonzalez critica que o YouTube não se limitou a um papel passivo, simplesmente permitindo que os usuários pesquisem ao que assistir, mas que seu algoritmo recomenda vídeos com base no histórico de cada usuário. 

Com isso, quem assistiu a vídeos de propaganda islâmica passou a receber mais conteúdos desse tipo, facilitando sua radicalização. 

Os parentes de Nohemi reclamam que a empresa do grupo Google, cuja controladora agora é a Alphabet, permitia a divulgação de vídeos de propaganda radical incitando a violência. A família da vítima acredita que o Google violou a lei antiterrorista ao permitir a divulgação desses vídeos e ao inserir publicidade, dividindo as receitas.

Gonzalez foi derrotado nos tribunais inferiores. A questão à Corte é se a isenção de responsabilidade atinge aquelas recomendações feitas pelo algoritmo. 

O Google argumenta que os algoritmos são a única maneira de organizar a enorme quantidade de informações despejadas todos os dias na Web. "A classificação e agrupamento de vídeos é a quintessência da publicação", diz a empresa. 

Se organizá-los retira o escudo de responsabilidade, argumenta a empresa, não haverá como salvar "recomendações de pesquisa e outras ferramentas básicas de software que organizam um dilúvio de sites, vídeos, comentários, mensagens, listagens de produtos, arquivos e outras informações, pois, de outra forma, seria impossível navegar".

Risco de 'distopia'

Segundo o Google, se a empresa for responsabilizada, a Internet "se tornaria uma distopia na qual os provedores enfrentariam pressão legal para censurar qualquer conteúdo censurável". "Alguns podem obedecer; outros podem tentar fugir da responsabilidade fechando os olhos e permitindo tudo, não importa o quão censurável seja. Esse tribunal não deve minar um elemento fundamental da Internet moderna."

O outro caso que está sob análise nesta quarta-feira, o Twitter vs. Taamneh, não tem a ver com as recomendações do algoritmo, mas em geral questiona se as redes sociais podem ser processadas por suposta cumplicidade em um ato de terrorismo ao hospedar conteúdo de usuários que geralmente expressam apoio ao grupo por trás da atos de violência, mesmo que não se refiram a um ataque específico.

A ação é pelo atentado terrorista contra uma boate em Istambul em que 39 pessoas morreram na festa de réveillon de 2016. Embora o caso leve o nome da rede social de Elon Musk, juntamente com o Twitter também estão o Google e o Facebook. Nesse caso, os juízes decidiram contra as empresas de tecnologia, que são as que recorreram à Suprema Corte.

Vários juízes da Suprema Corte, incluindo os conservadores Clarence Thomas e Samuel Alito, já haviam manifestado interesse em admitir casos sobre moderação de conteúdo na Internet. As alegações orais de terça-feira nos permitirão intuir quais são suas posições, embora tenham até o final de junho para emitir uma sentença. As duas sentenças e a doutrina que as acompanha podem ter uma profundidade enorme e abrir caminho para uma avalanche de processos.

As empresas tecnológicas também estão há algum tempo sujeitas ao fogo cruzado dos partidos políticos. 

Os republicanos as acusam de exercer censura com viés progressista. Os democratas, liderados pelo presidente Joe Biden, criticam essa blindagem que as isenta de responsabilidade quando espalham discurso de ódio ou desinformação. Biden publicou uma coluna no mês passado no The Wall Street Journal, um diário econômico de orientação conservadora, na qual convocou republicanos e democratas a "se unirem contra os abusos da Big Tech". 

E deixou claro qual é a sua posição no debate em torno da seção 230, que pediu para reformar: "Precisamos que as Big Techs assumam a responsabilidade pelo conteúdo que divulgam e pelos algoritmos que utilizam", escreveu.

Agora está em jogo esse escudo de responsabilidade, uma das duas grandes vantagens que as empresas de tecnologia tiveram. A outra, o poder de decidir com suas políticas de moderação o que é publicado e o que não é, também está em jogo. A Flórida e o Texas aprovaram leis que impedem que as plataformas se recusem a transmitir determinado conteúdo político.

O conteúdo, por outro lado, não é a única frente de batalha. As grandes empresas de tecnologia estão sujeitas a um maior escrutínio regulatório, tributário e concorrencial, com episódios que vão desde o processo do Departamento de Justiça contra o Google por abuso de posição dominante, a contestação da compra da Activision pela Microsoft ou o processo de alguns Estados contra as mídias sociais por contribuir para a crise de saúde mental juvenil.

Em princípio, a seção 230 não afeta os direitos de propriedade intelectual e não é uma permissão para sua violação, embora na prática essas redes sociais tenham baseado seu sucesso na violação sistemática dos direitos autorais. 

Milhões de fotos e vídeos aos quais os usuários não têm direitos são compartilhados todos os dias com quase total impunidade. Na prática, apenas casos extremos de conteúdo pirata de alto valor econômico, como transmissões esportivas e filmes inéditos, são processados.


Fonte: O GLOBO