mediaveritas

mediaveritas

A nova lei europeia dos serviços digitais parece insuficiente para combater a desinformação


A União Europeia está a preparar um conjunto de mudanças na lei, com a preocupação de enfrentar os riscos colocados pelas campanhas de desinformação online. Mas a eficácia destas medidas pode ser reduzida, argumenta um ex-funcionário de topo da Comissão Europeia, o italiano Paolo Cesarini, que chefiou a Unidade de Convergência dos Meios de Comunicação Social. Num artigo de opinião publicado no Euractiv, Cesarini explica que as mudanças que a nova legislação europeia prepara podem ser insuficientes.  

A proposta da Lei dos Serviços Digitais (DSA), e dois planos de acção de apoio à democracia europeia (EDAP) e ao sector dos media e do audiovisual (MAAP), demonstram que a Comissão pretende “enfrentar este desafio global”, assegurando a primazia dos “valores democráticos europeus e dos direitos fundamentais”, começa por elogiar Cesarini.

Mas ao longo dos últimos anos, a promessa europeia de regular as grandes plataformas tecnológicas, e as suas práticas de moderação de conteúdos, aumentar a resistência contra a interferência estrangeira nos processos eleitorais, reforçar as salvaguardas legais para o jornalismo profissional e impulsionar novos instrumentos de política industrial em apoio ao sector plural e sustentável dos meios de comunicação social, não surtiram os efeitos desejados.

“Todos estes aspectos são críticos para uma política eficaz contra a desinformação”, concorda Cesarini. “No entanto, o nó górdio continua a ser sobre como estabelecer obrigações adequadas para as plataformas globais online que possam ser eficazes na luta contra a ameaça, equilibrando ao mesmo tempo a segurança dos utilizadores e a liberdade de expressão.”

A DSA pretende aplicar regras às  "plataformas online de muito grande dimensão" (ou seja, serviços que atingem 45 milhões de utilizadores mensais activos na UE, ou 10% da população da UE); uma base legal para códigos de conduta, tais como o Código de Prática sobre Desinformação; e mecanismos de supervisão pública, incluindo auditorias independentes e novas ferramentas de aplicação, com multas até 6% do volume de negócios global das plataformas em caso de incumprimento.

O problema, continua Cesarini, é que esta abordagem de “co-regulação” não dá à Europa meios para lidar com um problema que é “endémico” ao modelo das grandes plataformas.

“A DSA impõe às plataformas muito grandes a obrigação de auto-avaliação, numa base anual, dos "riscos sistémicos" decorrentes do funcionamento dos seus serviços, e de tomar as medidas de mitigação adequadas.” Por isso, define a desinformação como uma "manipulação intencional do serviço", normalmente envolvendo "utilização não autêntica ou exploração automatizada".

Aqui estão incluídas as técnicas mais comuns de manipulação online, tais como o uso de contas falsas, bots, identidades roubadas, ou aquisições de contas. Para Cesarini, “esta definição parece ignorar que a desinformação é um fenómeno multifacetado cujo impacto depende de tecnologias em rápida evolução, vulnerabilidades específicas do serviço, e constantes mudanças nas tácticas manipuladoras”.

“Boatos ou teorias de conspiração são frequentemente construídas através de sucessivas operações de manipulação em vários recursos em linha (websites falsos, meios de comunicação social marginais, fóruns de discussão, blogs, etc.) antes de serem injectados nos principais meios de comunicação social, muitas vezes sem a ajuda de relatos falsos ou bots, com vista a normalizar uma narrativa, ou a legitimar certas fontes de informação”, acrescenta o ex-responsável da Comissão.

Outro problema que a legislação europeia não prevê é o da migração rápida de comunidades inteiras de utilizadores de uma rede social para outra, “com informações falsas proibidas num sítio a reaparecerem noutro”, o que sugere leva Cesarini a alertar para um problema que não está salvaguardado na lei europeia: “os riscos relacionados com a desinformação são endémicos para todo o ecossistema.”

“A detecção eficaz de manipulações sofisticadas de informação dificilmente pode contar apenas com a auto-avaliação anual das plataformas”, critica este especialista. A DSA deve incluir, na sua opinião, “a possibilidade de os investigadores e verificadores de factos examinados emitirem alertas que desencadeiem a obrigação de as plataformas realizarem investigações internas de forma expedita”.

Outro ponto em falta é o da obrigatoriedade de troca de informações entre as diferentes plataformas, para que as suas equipas de segurança possam detectar ameaças e controlar os efeitos destas “migrações” de campanhas de desinformação do Facebook para o YouTube, ou outras.

Por último, Cesarini adverte que “a DSA não lança muita luz sobre o que é realmente necessário para que as plataformas devam mitigar os riscos emergentes da desinformação”. “Princípios de moderação de conteúdos, concepção algorítmica responsável, e desmonetização de websites que utilizam a desinformação como "click-bait" para atrair receitas de publicidade são áreas importantes em que a direcção da Comissão seria essencial para evitar que seja deixada demasiada discrição aos grandes actores digitais, de modo a conferir-lhes o papel de árbitros finais da democracia.”