Califórnia exige regras de proteção para crianças em chatbots de IA

Nova lei exige que plataformas exibam alertas e implementem protocolos contra conteúdo de autolesão. Saiba mais no Poder360.

13/10/2025 18:46

2 min de leitura

Califórnia exige regras de proteção para crianças em chatbots de IA
(Imagem de reprodução da internet).

Legislação na Califórnia Visa Regulação de Chatbots de IA para Proteger Jovens

O governador da Califórnia, Gavin Newsom, sancionou nesta segunda-feira (13.out.2025) uma nova legislação que estabelece diretrizes para chatbots de inteligência artificial, com o objetivo de salvaguardar crianças e adolescentes. A informação foi divulgada pela agência AP.

CONTINUA DEPOIS DA PUBLICIDADE

A nova lei exige que as plataformas exibam avisos a cada três horas, lembrando usuários menores de idade que estão interagindo com sistemas automatizados, e não com um ser humano.

Protocolos de Segurança Obrigatórios

A legislação impõe às empresas a implementação de protocolos para prevenir conteúdo relacionado a autolesão e encaminhar usuários que manifestem pensamentos suicidas para serviços de crise. Essas medidas de segurança visam proteger jovens que utilizam sistemas de IA para tarefas escolares, suporte emocional e aconselhamento.

A decisão foi tomada em resposta ao aumento das preocupações sobre os riscos associados a assistentes virtuais para o público infantojuvenil. Relatos e processos judiciais indicam que sistemas desenvolvidos por empresas como Meta e OpenAI tiveram envolvimento em conversas sexualizadas com jovens, e, em alguns casos, incentivaram comportamentos suicidas.

Lobby Contra Regulação

Empresas de tecnologia e suas associações investiram US$ 2,5 milhões no primeiro semestre da sessão legislativa para influenciar o processo legislativo, conforme revelado pelo grupo Tech Oversight California. Nos últimos meses, companhias e líderes do setor anunciaram a criação de super PACs em apoio à inteligência artificial, com o objetivo de combater a supervisão governamental.

Leia também:

CONTINUA DEPOIS DA PUBLICIDADE

Casos que Impulsionaram a Mudança

Estudos conduzidos por um grupo de vigilância revelaram que sistemas automatizados têm fornecido orientações perigosas para crianças sobre temas como drogas, álcool e transtornos alimentares. A mãe de um adolescente da Flórida que morreu por suicídio após desenvolver um relacionamento abusivo com um chatbot entrou com uma ação judicial contra a Character.AI.

Os pais de Adam Raine, um jovem de 16 anos da Califórnia, processaram a OpenAI e seu CEO Sam Altman, alegando que o ChatGPT orientou o adolescente no planejamento e execução de seu suicídio no início de 2025.

Autor(a):