Califórnia exige regras de proteção para crianças em chatbots de IA

Nova lei exige que plataformas exibam alertas e implementem protocolos contra conteúdo de autolesão. Saiba mais no Poder360.

2 min de leitura

(Imagem de reprodução da internet).

Legislação na Califórnia Visa Regulação de Chatbots de IA para Proteger Jovens

O governador da Califórnia, Gavin Newsom, sancionou nesta segunda-feira (13.out.2025) uma nova legislação que estabelece diretrizes para chatbots de inteligência artificial, com o objetivo de salvaguardar crianças e adolescentes. A informação foi divulgada pela agência AP.

CONTINUA DEPOIS DA PUBLICIDADE

A nova lei exige que as plataformas exibam avisos a cada três horas, lembrando usuários menores de idade que estão interagindo com sistemas automatizados, e não com um ser humano.

Protocolos de Segurança Obrigatórios

A legislação impõe às empresas a implementação de protocolos para prevenir conteúdo relacionado a autolesão e encaminhar usuários que manifestem pensamentos suicidas para serviços de crise. Essas medidas de segurança visam proteger jovens que utilizam sistemas de IA para tarefas escolares, suporte emocional e aconselhamento.

CONTINUA DEPOIS DA PUBLICIDADE

A decisão foi tomada em resposta ao aumento das preocupações sobre os riscos associados a assistentes virtuais para o público infantojuvenil. Relatos e processos judiciais indicam que sistemas desenvolvidos por empresas como Meta e OpenAI tiveram envolvimento em conversas sexualizadas com jovens, e, em alguns casos, incentivaram comportamentos suicidas.

Lobby Contra Regulação

Empresas de tecnologia e suas associações investiram US$ 2,5 milhões no primeiro semestre da sessão legislativa para influenciar o processo legislativo, conforme revelado pelo grupo Tech Oversight California. Nos últimos meses, companhias e líderes do setor anunciaram a criação de super PACs em apoio à inteligência artificial, com o objetivo de combater a supervisão governamental.

CONTINUA DEPOIS DA PUBLICIDADE

LEIA TAMBÉM!

Casos que Impulsionaram a Mudança

Estudos conduzidos por um grupo de vigilância revelaram que sistemas automatizados têm fornecido orientações perigosas para crianças sobre temas como drogas, álcool e transtornos alimentares. A mãe de um adolescente da Flórida que morreu por suicídio após desenvolver um relacionamento abusivo com um chatbot entrou com uma ação judicial contra a Character.AI.

Os pais de Adam Raine, um jovem de 16 anos da Califórnia, processaram a OpenAI e seu CEO Sam Altman, alegando que o ChatGPT orientou o adolescente no planejamento e execução de seu suicídio no início de 2025.

Sair da versão mobile