A guerra em torno do PL das Fake News I O ASSUNTO I g1
Caramba, isso é uma criança.
É um menino?
Com uma balaclava de caveira que é utilizada por neonazistas, atiradores em escolas.
Esse menino faz o gesto nazista, com o braço.
E nessa outra, ele tá com uma faca.
Surgem fotos e vídeos de pessoas ferindo o próprio corpo com uma lâmina.
É aqui a menina que ela tá se automutilando, uma menina se automutilando ao vivo.
Que horror.
Ela tá com o braço do outro lado.
Ela tá com o dia todo do outro lado.
Estão vibrando com escortes no braço dela.
Nas redes sociais, crianças e adolescentes cada vez mais expostos a conteúdos perturbadores
e a desafios cruéis e criminosos.
Nossa, gente.
Cachorro todo mutilado.
É um gato esquartejado.
Uma garota com máscara de caveira tenta sufocar um gato da vizinhança e colocar uma faca
dentro dele.
O caso foi denunciado a uma veterinária e ativista pelos direitos dos animais.
Ela colocou fogo num pedaço de papel e atirou fogo no gatinho.
Conteúdos com incitação à violência que levaram autoridades a olhar com lupa em quais
plataformas estão os discursos de ódio.
Esta internet que todos nós conhecemos, às vezes nos perguntam.
E a Deep Web, Dark Web?
Isso também é fiscalizado.
Também é acompanhado.
Operações têm saído daí.
Mas estes números que eu transmito, na sua imensa maioria, são dessas redes digitais
conhecidas dos senhores.
E o que é mais grave, dos filhos dos senhores, dos adolescentes, são estas que aí estão.
Algumas sem representante no Brasil.
Nessas mesmas redes, a disseminação de notícias falsas afeta a saúde pública.
Nós temos enfrentado uma forte campanha desde 27 de fevereiro de fake news envolvendo a
vacina bivalente.
Isso é uma coisa extremamente séria e eu tenho destacado que não se trata de desinformação,
se trata de ação criminosa.
Eu acho que a gente precisa qualificar dessa forma, porque está se gerando o terror na
população.
Plataformas que, no ano passado, receberam uma enxurrada de conteúdo colocando em dúvida
o sistema eleitoral.
E o ponto crítico dessa ameaça à democracia veio pouco depois, em 8 de janeiro.
A avalanche de fake news ameaçando a segurança de crianças e jovens, a saúde pública e
a própria democracia fez com que o Congresso acelerasse a discussão de um projeto de lei
para regulamentar a atividade das plataformas.
Da redação do G1, eu sou Natuzaneri e o assunto hoje é a guerra de forças em torno
do projeto de lei das fake news.
Um episódio para entender o que está em discussão no Congresso, quais são os argumentos
contra e a favor e como as chamadas big techs reagiram após serem acusadas de distorcer
esse debate.
Neste episódio, eu converso com Pablo Hortelado, coordenador do Monitor do Debate Político-Digital,
professor da USP e colunista do jornal O Globo, e Marie Santini, diretora do NetLab da Universidade
Federal do Rio de Janeiro.
Ela é autora do estudo que apontou o suposto abuso de poder econômico das plataformas
digitais contra o projeto de lei das fake news.
Quarta-feira, 3 de maio.
Pablo, o PLE das fake news, cujo parecer foi apresentado na última quinta-feira, vem
gerando muitas discussões por causa dos inúmeros tópicos que ele perpassa.
Até porque é um projeto de lei super extenso, com muitos capítulos e isso você já sabe
de core salteado.
Mas eu queria te pedir para começar nos explicando, por favor, do que trata exatamente esse projeto
de lei.
Olha, de fato, o PLE é muito grande e ele tem muitos capítulos.
Mas ele tem um coração ali.
E esse coração é uma mudança do funcionamento do regime de moderação de conteúdos em
plataformas sociais, sobretudo mídias sociais, que vai passar de um regime de autorregulação
para um regime supervisionado.
Então funciona assim, hoje quando você vai usar essas plataformas, a gente está falando
do Instagram, do Twitter, do Facebook, etc.
Você quando vai abrir a conta, você aceita os termos de uso da comunidade.
São aqueles termos que diz que não pode nudez, não pode violência, não pode racismo.
Esses termos foram elaborados pelas próprias plataformas, então é uma decisão delas
para regulamentar o seu próprio serviço.
Você entra, você diz que está de acordo com isso e se você faz uma postagem que as
empresas entendem que violam isso, ela pode ser moderada, o que significa que ela pode
ser removida, pode ser rotulada, pode ter seu alcance limitado.
Essa moderação as empresas fazem na medida da sua capacidade.
Elas fazem o quanto elas quiserem ou o quanto elas puderem.
E esse é um regime autorregulado, elas que definiram os termos, o que pode e o que não
pode entrar e elas é que fazem cumprir essas normas.
Esse regime é que vai mudar.
O projeto foi um dos temas da reunião do presidente Lula com o presidente da Câmara,
o deputado Arthur Lira do Progressistas, no Palácio da Alvorada.
Há três anos o tema está em discussão no Congresso.
O texto já foi aprovado no Senado e agora está pronto para ser votado na Câmara.
O relator, deputado Orlando Silva, do PCdoB, passou a tarde em reuniões com bancadas esclarecendo
as últimas dúvidas dos deputados sobre o texto.
O objetivo era conseguir votá-lo ainda hoje como estava previsto.
No início da noite, logo após a abertura da sessão no plenário, o relator Orlando
Silva pediu que Lira retirasse o projeto da pauta.
Esse é um tema, presidente, que não é do governo nem é da oposição.
É um tema do Brasil.
E aqui não pretendo, presidente, me permita fazer de engana, mas produzir o melhor texto possível.
A partir de agora, copiando o modelo europeu, passam a ver, se o PL for aprovado do jeito
que ele está sendo apresentado, passam a ver conteúdos ilegais.
Uma série de sete leis, conteúdos que violem alguma dessas sete leis, que sejam ilícitos
porque estão em desacordo com essas leis, são coisas como racismo, violência contra
mulher, violência contra as crianças e coisas do gênero, golpe de estado, terrorismo, etc.
Se esses conteúdos violem essas leis, as plataformas passam a ter o dever de cuidar,
de se esforçar para moderar esses conteúdos.
Esses esforços de moderação, não é esperado que as plataformas consigam tirar tudo, mas
elas têm que fazer um esforço para moderar, porque uma moderação bem feita é cara.
É por isso que, apesar das plataformas terem os seus termos de serviço, elas não conseguem
implementar eles muito bem.
Nesse novo regime, elas passam a ter essa obrigação de ficar olhando e ter esforços
para fazer uma moderação bem feita.
Essa moderação é relatada em um relatório de transparência semestral, é auditada por
uma empresa independente e passa a ver uma entidade de supervisão que olha para esse
relatório, olha para essa auditoria independente e julga a qualidade dessa moderação dos
conteúdos ilegais.
E ela pode fazer recomendações de melhorias, ela pode dar uma advertência e pode, em uma
escada de sanções, chegar até multas muito pesadas e, inclusive, suspender o serviço.
As novas regras atingem provedores que têm, em média por mês, mais de 10 milhões de
usuários.
O projeto ainda cria um novo tipo penal, com pena de reclusão de um a três anos e multa.
Passa a ser crime promover ou financiar com conta automatizada ou outros meios não autorizados
pelos provedores a divulgação em massa de mensagens em verídicas que sejam capazes
de comprometer o processo eleitoral ou que possam causar dano à integridade física.
O relator também estabelece prazo de 24 horas para que as plataformas cumpram as decisões
judiciais para a retirada de conteúdo ilícito e multa de até R$ 1 milhão por hora para
o caso de descumprimento.
Bom, você falou bastante sobre moderação e uma das incertezas do texto final, que deputados
garantem que já não está mais e que não haveria risco de entrar na versão final
do texto que está na Câmara, é sobre a criação de uma agência reguladora.
Ou seja, se quem vai supervisionar e impor sanções vai ser um órgão do governo ou
ligado ao governo já existente ou se um novo precisaria ser criado.
Qual é a sua avaliação sobre esse ponto em particular, Pablo, que gerou tanta polêmica
nos últimos dias?
A maior parte dessa polêmica é desentendimento, é falta de compreensão desse modelo.
Esse é o modelo que está no projeto, é um modelo europeu, é um modelo democrático
de fazer regulação de mídias sociais.
Ele não é um modelo autocrático que a gente está vendo na Rússia, na China, em outros
países autocráticos, onde o governo intervém e vai tirando posts ou determina como vai
funcionar o debate público.
O Datafolha divulgou uma pesquisa mostrando que a grande maioria dos eleitores entende
que as fake news divulgadas em aplicativos e redes sociais podem influenciar no resultado
das próximas eleições.
Para 60% a circulação de fake news pode influenciar muito, 22% responderam que pode
influenciar um pouco, 15% entendem que não pode influenciar.
O Datafolha ainda perguntou à opinião dos entrevistados sobre a exclusão de publicações
falsas relacionadas à eleição.
81% responderam que as redes sociais deveriam excluir as publicações falsas o mais rápido
possível.
14% entendem que as redes deveriam deixar as publicações como estão, mas avisar que
as notícias são falsas.
Para 3% as redes não deveriam fazer nada e deixar as notícias falsas como foram publicadas.
Nesse regime que está sendo proposto são as empresas que fazem a moderação, tendo
como parâmetro leis que já existem, que já são consensuadas.
Essa agência não tem o poder de tirar uma postagem específica ou de deixar uma postagem
específica.
Ela faz uma análise do comportamento sistêmico das plataformas.
Tudo o que elas fizeram no decorrer de seis meses, olhando para o sistema, não olha para
a postagem A ou para a postagem B.
Essa agência de supervisão também não tem a capacidade de criar novas regras, dizer
isso aqui também não pode.
O que ela faz é avaliar em que medida e com que eficácia as plataformas estão respeitando
as leis e estão moderando conteúdos que são ilegais porque desrespeitam essas leis.
São leis de injúrias raciais, apologia, agressão às mulheres, pedofilia.
São coisas muito consensuais.
Nós não estamos falando de coisas que são controversas na sociedade brasileira.
Para entender a dinâmica das comunidades que compartilham esse conteúdo violento,
demos um segundo passo.
Acessamos aos servidores acompanhados dos ativistas que denunciam essas violências.
É a primeira vez que nós estamos acessando esses servidores.
Pornografia, pornografia.
Prepara bem o seu estômago, respira fundo e vai subir.
As primeiras fotos são cortes suboficiais, são fotos de automutilação.
Estarrecedor o nível de violência.
Como é que uma menina de repente está nua em frente à câmera se automutilando.
E é um vídeo de uma menina cortando o próprio pescoço.
A gente tem visto uma escalada não só do número de denúncias de violência,
de conteúdo extremista na internet,
mas também uma escalada no nível de crueldade e sadismo, muitas vezes, desse conteúdo.
Toda essa controvérsia, ela parte de um pressuposto equivocado
de que o governo faria uma agência da verdade.
Esse IPL, por exemplo, ele não fala de desinformação.
Ele não está, não existe nenhuma dessas regras respeito a se o conteúdo é verdadeiro ou é falso.
Ele é basicamente sobre conteúdos ilegais que violam essas regras.
Nós estamos falando que vai ter que moderar a apologia ao golpe de Estado,
esses incentivos à mutilação, ao suicídio, incentivo ao terrorismo.
São coisas muito consensuais e não diz respeito à verdade ou falsidade de notícias.
Além das empresas de tecnologia, quem é que está mais, além delas, declaradamente contra o projeto de lei?
Quais são os argumentos de cada lado, por exemplo?
Eu acho que hoje tem basicamente três grupos que são contra o projeto.
O primeiro grupo são as plataformas.
O segundo grupo são os bolsonaristas, que acreditam que esse projeto é uma forma de censura.
E tem alguns grupos da sociedade civil que tem uma visão muito maximalista da liberdade de expressão,
que acha que qualquer forma de moderação, mesmo dessa maneira mão leve, suave,
ela significa limites à liberdade de expressão.
Esse argumento, inclusive, ele é muito mobilizado, embora seja dessas organizações da sociedade civil,
que têm trajetória nos direitos humanos, são muito mobilizados pelos outros dois grupos.
E eu acho que esse é o principal argumento.
Seria a ideia de que, ao determinar um determinado tipo de conteúdo que precisam ser retirados,
e impor sanções se as empresas não fizerem esforço para retirar esses conteúdos,
que na dúvida as empresas iam retirar conteúdo.
Porque se elas não tirassem os riscos de elas sofrerem algum tipo de sanção, de advertência ou multa,
seria um estímulo, até um estímulo econômico, a elas retirarem em demasia esses conteúdos.
Porque, além desse argumento embasado, eu acho que existe uma grande quantidade de argumentos falaciosos,
talvez seja uma expressão forte, porque significa má-fé.
Eu não sei em que medida tem má-fé ou desinformação.
Então a ideia de que o governo está construindo o Ministério da Verdade,
de que o governo vai determinar o que é falso e o que é mentira,
todos esses argumentos que eu acho que conteúdos religiosos vão ter que ser tirados da plataforma,
são todos argumentos muito descabidos, que eles não fazem parte desse modelo.
O texto que cria a Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet
reforça que liberdade de expressão e acesso à informação são direitos dos usuários das plataformas digitais.
E deixa claro que nenhuma medida gera restrição ao livre desenvolvimento da personalidade individual,
à livre expressão e à manifestação artística, intelectual, de conteúdo satírico, religioso, político,
ficcional, literário ou qualquer outra forma de manifestação cultural.
Esse modelo é um modelo europeu, é um modelo das democracias liberais,
é um modelo da Dinamarca, da França, da Alemanha. Não é um modelo da Rússia e da China.
Pablo, e até que ponto a onda de violência nas escolas que a gente viu recentemente
fortaleceu aqueles que defendem uma regulação maior das redes sociais?
O que a gente viu aí nessa onda de ataques às escolas é que esses ataques são estimulados
por comunidades que cultuam massacres no passado.
São comunidades que olham para os atentados do passado, principalmente o atentado em Columbá,
nos Estados Unidos, em 99, mas também outros atentados às escolas que a gente teve no Brasil,
como o de Realengo, o atentado em Suzano, e veneram esses massacres.
E uma parcela dessas pessoas que veneram massacres são estimuladas por instigadores
a fazer novos massacres, de maneira que essas pessoas saiam do anonimato
e se inscrevam nessa história de crimes célebres.
No material que analisamos, há também incentivos a ataques em escolas.
Para enfrentar essa ameaça, o Ministério da Justiça criou a operação Escola Segura,
com um sistema de monitoramento das redes sociais e uma portaria visando responsabilizar plataformas digitais
por conteúdos que façam apologia à violência nas escolas.
Essas comunidades, no passado já estiveram bem escondidas em canais de difícil acesso,
hoje elas estão na superfície, ou até pouco tempo elas estavam.
Agora houve combate e a situação ficou um pouco diferente.
Mas até um mês atrás elas estavam no Twitter, elas estavam no TikTok e elas estavam no Discord.
E estavam operando à luz do dia, né?
E é bem importante que nessa regulação existe uma disposição,
tá entre as leis, entre os conteúdos que se tornam ilegais e que as empresas passam a fazer esforços
para moderar esses conteúdos, os conteúdos que estimulam esses massacres.
Pablo, muito obrigada pela participação.
Você sabe que o assunto está sempre de portas abertas aqui pra você.
Imagina, foi um prazer participar mais uma vez. Um abraço aí a todos.
Espera um pouquinho que eu já volto pra falar com a Marie Santini.
Marie, por que as big techs são tão contra o projeto de lei que está em discussão no Congresso?
Essas empresas, elas avançaram durante todas essas décadas sem regulamentação nenhuma, né?
Então o negócio delas não sofreu nenhum tipo de sanção ou limite durante todo esse tempo
e sempre se posicionaram como empresas que de alguma maneira davam serviços de graça para as pessoas, né?
Que permitiam um processo colaborativo, etc.
E principalmente como um espaço para pequenos produtores de conteúdo e pequenos anunciantes
ocuparem esse lugar, tanto como anunciantes como produtores de conteúdo.
Um espaço que eles não têm nas mídias tradicionais, né? Nos meios de comunicação de massa.
Então o grande negócio dessas plataformas é publicidade. Elas são empresas basicamente de publicidade, né?
Ganham bilhões e bilhões, né? A Meta, por exemplo, é uma empresa de 116 bilhões de dólares por ano.
Foi o que ela faturou em 2022. O Google, 279 bilhões de dólares no ano passado também.
E o modelo delas de negócio é o modelo da cauda longa.
Elas ganham dinheiro com anúncios muito baratos, né?
Que são hiper segmentados e são trilhões de anúncios.
E a gente não sabe quanto desses anúncios são anúncios criminosos, anúncios de produtos falsos, anúncios de fraudes,
anúncios que se tivessem que cumprir com as regras, por exemplo, do CONAR, do Código de Defesa do Consumidor,
a gente não sabe o quanto elas perderiam com isso.
Mas de fato elas não querem nenhuma limitação para o negócio delas, né? Que é um negócio de bilhões.
Quem entrava no site de buscas do Google já encontrava a frase
O PL das fake news pode aumentar a confusão sobre o que é verdade ou mentira no Brasil.
No fim da tarde, o ministro do Supremo Tribunal Federal, Alexandre de Moraes,
deu um prazo de 48 horas para que a Polícia Federal ouça os presidentes das empresas Google, Meta, Spotify e Brasil Paralelo.
Determinou que as empresas removam anúncios, textos e informações com ataques ao PL das fake news
sob pena de multa de R$ 150 mil por hora.
E ainda determinou que as empresas expliquem os métodos e os algoritmos de impulsionamento das informações.
O Conselho Administrativo de Defesa Econômica, o CADE, abriu uma apuração contra Google e Meta
por suposto abuso de posição dominante na discussão sobre o projeto das fake news.
E eu acredito que elas consideram que um projeto de lei desse, que principalmente vai exigir uma exposição,
uma transparência da publicidade, pode prejudicar o negócio delas.
Mas o ponto central aí me parece, me corrija se eu estiver errada, é que você não pode lucrar com crime, né?
E há diversas atividades criminosas que se utilizam de redes sociais.
Por exemplo, estimulam a violência de adolescentes e por aí vai.
Dá para se ter ideia do quanto essa limitação debatida no Congresso, se de fato se tornar lei
ou se tiver uma decisão do Supremo, caso a lei não seja aprovada, no sentido de estabelecer uma regulação
ou um maior controle para evitar atividades criminosas, quanto que isso pode impactar no faturamento de uma empresa como essa?
Então hoje a gente não tem nenhuma ideia porque justamente não há transparência nenhuma.
Então a gente não tem ideia, por exemplo, no Brasil o mercado de anúncios digitais é de 32 bilhões de reais.
A gente não tem ideia que anúncios são esses, qual é o conteúdo desses anúncios, o quanto desses anúncios são irregulares,
são criminosos, atentam conta a integridade eleitoral, por exemplo, a gente não tem ideia.
O diretor executivo da Associação Brasileira de Agências de Publicidade, Alexandre Gibot,
afirmou que, como está, o projeto representa um dos documentos mais modernos do mundo
e que pode colocar o Brasil em situação de protagonismo no combate às fake news.
A Abert, Associação Brasileira de Emissoras de Rádio e Televisão, defendeu a aprovação do texto.
O projeto de lei talvez seja o ponto de partida para que a gente tenha realmente um mecanismo de controle
de desinformação nas redes sociais.
Os representantes do TikTok, do Google e da Meta, que é dona do Facebook, do Instagram e do WhatsApp,
defenderam mais tempo para discutir o projeto.
Mas o fato é que, ao exigir transparência, elas vão ter que fazer um investimento pesado
para garantir essa transparência, para garantir auditabilidade desses dados,
para tornar esses dados públicos, que eles possam ser buscáveis e auditáveis.
Então, esse número a gente só vai saber se a lei for aprovada e se a gente começar a ter transparência sobre isso.
Agora, a gente sabe que, numa democracia, todo mundo tem direito a ter posicionamentos,
inclusive as próprias empresas.
Mas o NetLab identificou uma manifestação que vai além disso, um possível abuso de poder econômico
cometido pelas Big Techs ao se posicionarem contra o PL das fake news.
E nesse levantamento, que está embasado agora, aliás, e esse levantamento agora embasa
uma investigação aberta pelo Ministério Público Federal de São Paulo,
também motivou uma decisão do ministro Alexandre de Moraes para que os representantes dessas empresas
sejam ouvidos pela Polícia Federal.
Quais são as principais evidências que vocês encontraram de que as empresas ultrapassaram os limites
ao incentivar ou estimular críticas ao projeto de lei?
Porque quem nos ouve pode ter uma dúvida.
Ué, mas a empresa não pode criticar se ela vai ser contrariada na tramitação de um projeto de lei?
Se ela tem interesses contrariados, por que ela não pode atuar?
Então, acho que vale a pena a gente explicar bastante a diferença do que é uma manifestação normal
dentro das regras do jogo de uma democracia.
Se há uma ação editorial da plataforma, ela deve revelar isso para o usuário consumidor.
Se tem publicidade, essa publicidade também tem que ser sinalizada.
Assim diz a lei.
Então, quando essas plataformas fazem publicidade velada, por exemplo,
ou que seja editorialização velada, isso compromete o debate, um debate transparente, um debate democrático.
O ministro da Justiça, Flávio Dino, quer saber se plataformas digitais
cometeram práticas abusivas contra o projeto de lei das fake news
e pediu à Secretaria Nacional de Defesa do Consumidor, ligada ao Ministério, que faça essa apuração.
O Secretário Nacional de Defesa do Consumidor, Vadir Damus,
disse que já determinou a abertura de um processo contra as empresas Meta, Google e o Twitter.
Em outra frente, o Ministério Público Federal também apura possíveis práticas abusivas.
O Procurador Regional dos Direitos do Cidadão Adjunto em São Paulo
deu 10 dias ao Google Brasil e à Meta para responderem a uma série de perguntas
sobre a possível atuação das empresas contra o projeto de lei.
De acordo com o Procurador, é imperioso apurar se as empresas Google e Meta
podem estar violando direitos fundamentais à informação, à transparência nas relações de consumo
e ao exercício da cidadania de seus usuários.
Então vou dar um exemplo. O Google, por exemplo, ele coloca nos termos de uso dele
que qualquer publicidade que seja política ou sensível, e isso inclui publicidade de temas políticos variados,
anúncios sobre referendos, votações, propostas legislativas, judiciais, etc.
Eles precisam ser autodeclarados pelo anunciante que é político
e o Google se compromete a colocar dentro do que eles chamam de uma central de transparência de publicidade.
E a gente tem lá naquela central de transparência de publicidade diversos anúncios,
inclusive de empresas privadas, por exemplo, hoje anunciando em relação à reforma tributária,
a CPMI de 8 de janeiro está lá no relatório de transparência.
Porém o anúncio que o próprio Google fez na plataforma dele sobre a PL,
eles não marcaram como anúncio político, portanto ele não vai para o relatório de transparência.
Em outro exemplo, a gente encontrou publicidade do Google sobre a PL 2630 no Spotify.
O Spotify não tem nenhum relatório de transparência, nenhuma biblioteca de anúncios,
a gente não tem nenhum acesso aos anúncios que são veiculados no Spotify.
Porque o Spotify argumenta que eles não permitem anúncios políticos sensíveis e sociais,
portanto eles não precisariam ter esse relatório de transparência.
Pois nós encontramos anúncios do Google veiculando incessantemente no Spotify a favor da PL,
tipo, interrompemos nossa programação para falar do perigo desse projeto de lei, etc.
Então está infringindo tanto o Google, que é anunciante, que não se autodeclarou,
como o Spotify, que autorizou e permitiu.
E outra coisa que também muitos usuários viram ontem,
que eles estavam colocando uma frase que levava um blog do Google acusando o projeto de lei,
já na tela principal do buscador, embaixo ali da caixinha de busca.
É uma outra forma de publicidade velada.
Então existe uma frase muito interessante de um professor de Harvard, que ele diz o seguinte,
a propaganda mais eficaz é aquela que não parece propaganda.
Apesar do PL ter sido apelidado de pele das fake news, como você mesmo acabou de lembrar,
muito do que ele pretende atingir não é nem desinformação, mas sim práticas ilegais,
como publicidade criminosa, que você já comentou.
Então, você consegue, Marie, nos dizer quais são os conteúdos ilegais
e as violações mais comuns em cada tipo de plataforma, como Telegram, Facebook e YouTube, por exemplo?
Ninguém consegue dizer isso, porque não tem transparência nenhuma.
A gente não tem como coletar dados dessas plataformas, né?
Pouquíssimas plataformas possuem API, que é uma forma que a gente pode coletar dados de forma automática.
Então, esse é mais um motivo que justifica o quanto que essa pele é importante,
porque essa pele, ela realmente não trata tanto de desinformação.
O que ela trata, basicamente, é de transparência e responsabilidade,
ou seja, tem que ter transparência até para a gente poder fazer esse tipo de diagnóstico,
que é fundamental, e responsabilidade, ou seja, se alguém se sentiu lesado por alguma mensagem,
por algum anúncio, por alguma arquitetura da própria plataforma,
que a plataforma responda por isso, mesmo que ela se defenda muito bem e não seja acusada,
mas que ela seja responsável e que ela compartilhe essa responsabilidade com os terceiros que produzem conteúdo.
O conteúdo produzido pelas empresas jornalísticas e de radiodifusão é regulado por decretos, portarias e leis.
Os veículos respondem editorialmente pelo que publicam e divulgam.
Nada disso vale para as plataformas online.
Não é possível, ainda hoje, que as grandes plataformas, elas sejam consideradas empresas de tecnologia.
Elas são também empresas de comunicação, empresas de publicidade.
O maior volume de publicidade no mundo, quem ganha são essas plataformas.
Então, eu sempre repito, no mundo real há responsabilidade e no mundo virtual deve haver também.
Os anúncios, né, a biblioteca de anúncios, que a meta é que tenha a melhor biblioteca,
apesar de muitos problemas, e se a APL fosse aprovada, esses problemas talvez fossem solucionados,
o pouco que a gente consegue ver, a gente coletou bastante anúncios eleitorais no ano passado.
Nosso laboratório coletamos quase 100 mil anúncios eleitorais e estamos analisando todos esses anúncios.
O que acontece hoje? Por exemplo, a plataforma não é obrigada a colocar o valor que ela cobra por esses anúncios.
Eles colocam uma faixa de investimento muito imprecisa e a gente não tem noção do valor real.
Isso é um problema, inclusive, para a prestação de contas do TSE.
Essa batalha do Tribunal Superior Eleitoral, do TSE, para tentar enfrentar uma pandemia chamada fake news.
O que o ministro, então, quer fazer é apertar a fiscalização em várias frentes.
Uma delas, financiadores de disseminação e também de disparos em massa nas eleições,
ou seja, usando conteúdo falso para uma ampliação dessa disseminação.
Agora, imagina o seguinte, será que a plataforma está cobrando o mesmo valor para todos os partidos?
Ela poderia cobrar valores diferentes? Como isso é um número totalmente opaco, hoje a gente não sabe.
A gente não sabe se isso está ocorrendo ou não e isso compromete profundamente o processo eleitoral,
compromete profundamente a democracia. Então, faz todo sentido.
Marie, muito obrigada pela participação. Já está convidada para voltar outras vezes.
Como esse assunto não acaba aqui, muito provavelmente você estará em breve novamente aqui com a gente.
Com o maior prazer, gente. Estou à disposição de vocês. Muito obrigada mesmo.
Este foi o assunto Podcast Diário disponível no G1, no Globoplay, no YouTube ou na sua plataforma de áudio preferida.
Vale a pena seguir o podcast na Amazon ou no Spotify, assinar no Apple Podcasts,
se inscrever no Google Podcasts, no CastBox ou no YouTube e favoritar na Deezer.
Assim você recebe uma notificação sempre que tiver um novo episódio.
Comigo na equipe do assunto estão Mônica Mariotti, Amanda Polato, Tiago Aguiar,
Gabriel de Campos, Luiz Felipe Silva, Tiago Kaczorowski e Guilherme Romero.
Eu sou Nath Zaneri e fico por aqui. Até o próximo assunto.
Legendas pela comunidade Amara.org