Política
Moraes recebe representantes de redes sociais e diz que elas serão regulamentadas
Última atualização: 25/01/2024 15:25
O ministro Alexandre de Moraes, presidente do Tribunal Superior Eleitoral (TSE), recebeu nesta quarta-feira, 1º, representantes de plataformas digitais na sede da Corte para debater medidas de combate à desinformação. No encontro, ele defendeu a regulamentação das redes sociais e medidas das próprias redes para melhorar a autorregulação. Foram representados na reunião Telegram, Twitch, TikTok, Kwai, Meta, Google, YouTube e Twitter.
Durante o encontro, Moraes afirmou que há necessidade de uma cooperação maior entre as plataformas e a Justiça Eleitoral. "Precisamos aproveitar a experiência nessa intensidade vivida, uma vez que nenhum paÃs teve a intensidade de ataques pelas redes que o Brasil teve nas eleições e depois no dia 8 de janeiro, que foi o ápice de ataques ao Estado Democrático de Direito", disse.
Em relação à moderação do conteúdo, Moraes argumentou que a definição do que deve ser removido deve levar em conta as ferramentas de autocontrole das próprias plataformas, já utilizadas normalmente para eliminar conteúdos sobre pedofilia e pornografia infantil. Para ele, é preciso ampliar o controle sobre publicações que reproduzem ou estimulam discurso de ódio e atentados antidemocráticos.
O ministro também sustentou que é preciso definir qual é a responsabilidade das plataformas quando a desinformação é impulsionada por monetização e algoritmos das redes.
Uma das resoluções do encontro foi a criação de um grupo de trabalho para apresentar propostas de melhoria da autorregulação e para o encaminhamento de sugestões de regulamentação ao Congresso. A sugestão foi de Moraes.
Estava na pauta do encontro a questão da responsabilização das big techs por conteúdo publicado por usuários. O tema ganhou maior repercussão após os atos golpistas de 8 de janeiro, gestados na internet. O governo mostrou intenção de editar uma Medida Provisória para criar regras sobre como as plataformas devem regular conteúdos criminosos. Após crÃticas, o Planalto recuou - mas ainda há possibilidade que a medida entre no PL das Fake News, em tramitação no Congresso. Em entrevista ao Estadão, o relator do PL, Orlando Silva, admitiu estudar as demandas do Executivo.
Hoje, o artigo 19 do Marco Civil da Internet estabelece que as plataformas só podem ser responsabilizadas por conteúdos que não forem removidos após decisão judicial. A constitucionalidade desse artigo está sendo questionada no STF e deve ser julgada em breve, de acordo com a ministra Rosa Weber, presidente da Corte.
A regulamentação das plataformas também já foi defendida por ministros do Supremo Tribunal Federal (STF), como LuÃs Roberto Barroso e Gilmar Mendes. Em conferência da Unesco sobre a regulação das mÃdias, no mês passado, Barroso recomendou a flexibilização do Marco Civil da Internet ao sustentar que as redes sociais devem remover conteúdos criminosos de forma proativa, sem aguardar ordem da Justiça.
O ministro Alexandre de Moraes, presidente do Tribunal Superior Eleitoral (TSE), recebeu nesta quarta-feira, 1º, representantes de plataformas digitais na sede da Corte para debater medidas de combate à desinformação. No encontro, ele defendeu a regulamentação das redes sociais e medidas das próprias redes para melhorar a autorregulação. Foram representados na reunião Telegram, Twitch, TikTok, Kwai, Meta, Google, YouTube e Twitter.
Durante o encontro, Moraes afirmou que há necessidade de uma cooperação maior entre as plataformas e a Justiça Eleitoral. "Precisamos aproveitar a experiência nessa intensidade vivida, uma vez que nenhum paÃs teve a intensidade de ataques pelas redes que o Brasil teve nas eleições e depois no dia 8 de janeiro, que foi o ápice de ataques ao Estado Democrático de Direito", disse.
Em relação à moderação do conteúdo, Moraes argumentou que a definição do que deve ser removido deve levar em conta as ferramentas de autocontrole das próprias plataformas, já utilizadas normalmente para eliminar conteúdos sobre pedofilia e pornografia infantil. Para ele, é preciso ampliar o controle sobre publicações que reproduzem ou estimulam discurso de ódio e atentados antidemocráticos.
O ministro também sustentou que é preciso definir qual é a responsabilidade das plataformas quando a desinformação é impulsionada por monetização e algoritmos das redes.
Uma das resoluções do encontro foi a criação de um grupo de trabalho para apresentar propostas de melhoria da autorregulação e para o encaminhamento de sugestões de regulamentação ao Congresso. A sugestão foi de Moraes.
Estava na pauta do encontro a questão da responsabilização das big techs por conteúdo publicado por usuários. O tema ganhou maior repercussão após os atos golpistas de 8 de janeiro, gestados na internet. O governo mostrou intenção de editar uma Medida Provisória para criar regras sobre como as plataformas devem regular conteúdos criminosos. Após crÃticas, o Planalto recuou - mas ainda há possibilidade que a medida entre no PL das Fake News, em tramitação no Congresso. Em entrevista ao Estadão, o relator do PL, Orlando Silva, admitiu estudar as demandas do Executivo.
Hoje, o artigo 19 do Marco Civil da Internet estabelece que as plataformas só podem ser responsabilizadas por conteúdos que não forem removidos após decisão judicial. A constitucionalidade desse artigo está sendo questionada no STF e deve ser julgada em breve, de acordo com a ministra Rosa Weber, presidente da Corte.
A regulamentação das plataformas também já foi defendida por ministros do Supremo Tribunal Federal (STF), como LuÃs Roberto Barroso e Gilmar Mendes. Em conferência da Unesco sobre a regulação das mÃdias, no mês passado, Barroso recomendou a flexibilização do Marco Civil da Internet ao sustentar que as redes sociais devem remover conteúdos criminosos de forma proativa, sem aguardar ordem da Justiça.