Índia Reduz Prazo para Identificação de Conteúdo Gerado por IA
Em 20 de fevereiro de 2026, o governo da Índia implementou uma medida significativa, reduzindo o prazo para plataformas digitais removerem conteúdos considerados ilegais de três para apenas três horas após a notificação, seja do governo ou da Justiça.
CONTINUA DEPOIS DA PUBLICIDADE
Essa decisão surge em resposta ao crescente uso de inteligência artificial, particularmente deepfakes, e visa garantir que materiais gerados por IA sejam claramente identificados, consolidando um controle mais rigoroso sobre o conteúdo online.
CONTINUA DEPOIS DA PUBLICIDADE
Debate Global sobre Moderação de Conteúdo e Responsabilidade das Plataformas
A iniciativa indiana se alinha a um debate em curso em diversos países, incluindo Brasil, Estados Unidos e União Europeia. A preocupação central reside no aumento de deepfakes e golpes durante eleições e períodos de instabilidade social. O objetivo é estabelecer responsabilidades claras para as plataformas digitais em um ambiente digital em constante evolução.
CONTINUA DEPOIS DA PUBLICIDADE
LEIA TAMBÉM!
Regulamentação no Brasil: STF e Responsabilidade das Plataformas
No Brasil, o Supremo Tribunal Federal (STF) consolidou a responsabilização das plataformas digitais em 5 de novembro de 2025, com a decisão parcial sobre o artigo 19 do Marco Civil da Internet, que vigorava desde 2014. Anteriormente, a responsabilidade só se aplicava se a plataforma não cumprisse uma ordem judicial específica para remover o conteúdo.
O STF entendeu que essa exigência, aplicada de forma absoluta, não oferecia proteção suficiente a direitos constitucionais relevantes e à democracia.
Novos Parâmetros para a Responsabilização
Com essa decisão, o tribunal estabeleceu novos parâmetros, permitindo que as plataformas respondam por conteúdo ilícito tanto após notificação, quanto em situações específicas sem ordem judicial, se a ignorância do conteúdo ilícito for clara.
O acórdão, com mais de 1.000 páginas, detalha as condições em que a ordem judicial é necessária (como em mensagens privadas) e quando as plataformas podem ser responsabilizadas por descuido, falta de notificação ou falhas na moderação de conteúdos ilegais, como crimes ou discursos criminosos.
Reações e Desafios
A decisão do STF gerou um amplo debate público sobre o papel do Judiciário na regulação digital. As opiniões permanecem polarizadas entre aqueles que defendem uma regulação abrangente e a responsabilização de grandes plataformas, e aqueles que argumentam que medidas rígidas poderiam limitar a liberdade de expressão.
O renomado doutor em direito e professor da USP, Victor Blotta, destaca a importância de normas claras e específicas, ressaltando que o Judiciário precisa ser legitimado para resolver conflitos envolvendo plataformas digitais. “O principal desafio é equilibrar a liberdade de expressão e a responsabilização por ilícitos nos espaços digitais”, afirma Blotta, defendendo um regime legal amplo que inclua um sistema de moderação respeitoso com o direito à petição e o direito de defesa.
Regulamentação nos EUA e na União Europeia
A regulamentação das redes sociais também ganhou força nos Estados Unidos e na União Europeia. Nos EUA, a nora do ex-presidente Donald Trump indicou que a Casa Branca acompanha propostas para restringir o acesso de adolescentes às plataformas digitais.
Na Europa, o Digital Services Act (DSA) impõe regras mais rigorosas para grandes plataformas com mais de 45 milhões de usuários ativos, exigindo mecanismos de notificação e recurso para usuários, e obrigando as empresas a informar o regulador sobre como identificam e tratam conteúdos problemáticos.
A publicação do acórdão do STF também se dá em um contexto de crescente preocupação com o uso de inteligência artificial e deepfakes, que podem ser usados para disseminar desinformação e manipular a opinião pública. A regulamentação das plataformas digitais é vista como um passo importante para proteger os cidadãos e garantir a integridade do processo democrático.
